Le Pentagone menace d’une réponse sévère à Anthropic pour l’interdiction d’utiliser Claude dans les systèmes de surveillance et d’armement autonome.

Le Pentagone menace d’une réponse sévère à Anthropic pour l’interdiction d’utiliser Claude dans les systèmes de surveillance et d’armement autonome.

8 hardware

Le ministre de la Défense américain Pete Hegseth envisage d’interrompre toutes les relations commerciales avec Anthropic, l’un des principaux développeurs d’IA, et de la qualifier « menace pour la chaîne d’approvisionnement ». Cela signifierait que tout sous-traitant du ministère devrait rompre ses liens avec Anthropic. L’information a été relayée par Axios, citant une source du Pentagone.

Ce qui est discuté
Hegseth affirme que « rompre ces relations sera extrêmement douloureux », mais le ministère prévoit de faire payer Anthropic pour les mesures forcées.
Sécurité – Shawn Parnell, porte‑voix officiel du Pentagone, a souligné : « Nous exigeons que nos partenaires aident l’armée à gagner chaque bataille ».
Relations actuelles avec Anthropic – Claude est le seul modèle d’IA utilisé dans les systèmes militaires secrets américains. Il domine également le marché commercial et a été déployé lors d’une récente opération au Venezuela.
Exigences du système – Le ministère veut garantir que l’IA ne sera pas utilisée pour la surveillance de masse des Américains ou pour créer une arme autonome. Anthropic juge ces conditions « excessivement restrictives » et souligne l’existence de « zones grises » qui les rendent inapplicables.
Négociations avec d’autres géants – Le Pentagone mène également des discussions avec OpenAI, Google et xAI, exigeant le droit d’utiliser leurs modèles « pour toutes fins légitimes ».

Pourquoi c’est important
1. Échelle du contrat
- Le contrat avec le ministère est évalué à 200 milliards de dollars, alors que les revenus annuels d’Anthropic sont d’environ 14 milliards de dollars.

2. Potentiel technologique
- Claude a déjà prouvé sa fiabilité et est utilisé dans des réseaux secrets américains ; 8 sur 10 des plus grandes entreprises américaines en sont clientes.

3. Politique de sécurité
- Le Pentagone estime que l’IA peut considérablement renforcer les capacités de collecte de données (messages sur les réseaux sociaux, autorisations pour le port discret d’armes) et potentiellement menacer les civils.

4. Impact sur l’industrie
- La position stricte vis-à-vis d’Anthropic donne le ton aux négociations futures avec OpenAI, Google et xAI. Tant que ces entreprises n’ont pas levé les restrictions pour les systèmes militaires non secrets, leurs modèles ne sont toujours pas utilisés dans des opérations entièrement secrètes.

Réactions des parties
- Anthropic
- Confirme son engagement à utiliser l’IA pour la sécurité nationale et souligne que Claude était le premier chatbot utilisé dans les réseaux secrets.
- Est prêt à mener « des négociations productives et de bonne foi » avec le ministère.

- Pentagone
- Selon les sources, ressent depuis un certain temps une insatisfaction envers Anthropic et voit la possibilité d’initier un conflit.
- Attend la confirmation qu’il n’y a pas de liens avec Anthropic pour poursuivre la coopération.

Prochaines étapes
* La décision concernant le statut d’Anthropic dans la chaîne d’approvisionnement n’a pas encore été prise.
* Le Pentagone prévoit de fixer une règle « utilisation à toutes fins légitimes » pour les modèles OpenAI, Google et xAI, mais la décision finale est toujours en attente.

Ainsi, le ministère envisage des mesures sérieuses contre l’une des entreprises clés du secteur IA, tout en cherchant à établir de nouvelles normes de sécurité et de contrôle sur ses partenaires technologiques.

Commentaires (0)

Partagez votre avis — merci de rester courtois et dans le sujet.

Pas encore de commentaires. Laissez un commentaire et partagez votre avis !

Pour laisser un commentaire, connectez-vous.

Connectez-vous pour commenter