Le Pentagone a retiré les entrepreneurs de ses projets avec Anthropic, tandis que Microsoft continuera d’offrir aux clients l’accès.
Règles :
- Répond uniquement avec la traduction, sans explications
- Ne pas ajouter de balise de langue ni le nom de la langue
- Pas de commentaires, juste la traduction
Bref sur les dernières nouvelles :
Ce qui s’est passé a eu un impact Ministère de la Défense des États‑Unis (Ministry of War) – « est passé à l’action » Cette semaine, il a annoncé qu’Anthropic était désormais considéré comme un fournisseur d'IA non fiable et a retiré le droit à tous les sous‑contractants de travailler avec cette startup. Microsoft et ses clients Les avocats de Microsoft ont analysé les lois et sont parvenus à la conclusion : leurs propres utilisateurs peuvent continuer à utiliser les modèles Anthropic via leur logiciel propriétaire. Secteur de la défense des États‑Unis Certaines entreprises ont déjà ordonné à leurs employés d’abandonner les solutions Anthropic au profit de plateformes IA alternatives. Selon la loi, ils auraient pu le faire dans un délai de six mois, mais pour les fonctionnaires, l’abandon doit être immédiat. Position de Microsoft 1) Les employés du ministère de la Défense ne peuvent pas utiliser les produits Anthropic via l’intégration avec les solutions Microsoft (y compris le chatbot Claude). 2) Si le travail des clients Microsoft n’est pas lié à la défense, ils peuvent librement utiliser Anthropic dans Microsoft 365, GitHub et AI Foundry. Comment cela fonctionne en pratique - Intégration de l’automne passé Microsoft a déjà intégré les solutions Anthropic dans ses services, tout en ne se séparant pas d’OpenAI – investisseur qui détient depuis longtemps un capital important dans la société. - GitHub Copilot AI Les développeurs peuvent utiliser Claude via GitHub Copilot AI, ainsi que disposer de l’accès à Codex d’OpenAI. Cela leur permet de passer d’une plateforme à l’autre selon leurs préférences. - Microsoft 365 Copilot (depuis octobre) Les clients Microsoft 365 peuvent depuis le début du mois d’octobre choisir entre les solutions Anthropic et OpenAI dans le cadre de Copilot sans restrictions, si leur activité n’est pas liée à la défense. Résultat : Le ministère de la Défense des États‑Unis a exclu Anthropic de sa liste de fournisseurs d'IA fiables, mais Microsoft continue de fournir à ses clients l’accès à ces modèles via ses propres services, sous réserve que cela ne soit pas lié aux missions militaires. En outre, les employés du ministère doivent abandonner immédiatement l’utilisation des produits Anthropic.
Commentaires (0)
Partagez votre avis — merci de rester courtois et dans le sujet.
Connectez-vous pour commenter