ChatGPT a reçu un refus parce qu'OpenAI collabore avec le Pentagone.

ChatGPT a reçu un refus parce qu'OpenAI collabore avec le Pentagone.

12 hardware

Question sur la coopération avec le ministère de la Défense

Préoccupés par les conséquences potentielles du partenariat d’OpenAI avec le ministère américain de la Défense (MoD), une partie de la société américaine a créé un mouvement « annulation de ChatGPT ». L’objectif de l’initiative est de soutenir Anthropic, une entreprise qui s’est retrouvée sur la « liste noire » du Pentagone après avoir refusé d’autoriser l’utilisation de ses modèles d’IA pour certaines tâches.

Pourquoi Anthropic est apparue sur la liste

Dans le conflit avec le MoD, il y avait deux « lignes rouges » que le développeur d’IA ne voulait pas franchir :

1. Il est interdit de donner aux modèles le droit autonome de prendre des décisions concernant l’utilisation d’armes.
2. Les modèles ne peuvent pas être utilisés pour surveiller les citoyens américains.

Lorsque Anthropic a refusé, le contrat avec le MoD a été résilié et l’entreprise a été inscrite sur la « liste noire », ce qui interdit à tous les sous‑contractants de défense de travailler avec elle.

Transition vers OpenAI

Après l’exclusion d’Anthropic des programmes de défense, le MoD a inclus OpenAI. Le dirigeant de l’entreprise, Sam Altman, a déclaré que ses modèles ne seraient pas utilisés pour la surveillance massive. Cependant, les représentants du gouvernement ont réfuté cette affirmation : ils ont souligné que l’IA serait utilisée uniquement dans le cadre de « scénarios légaux », et que la loi Patriot de 2001 permet de collecter des métadonnées sur les réseaux de communication, même si certaines dispositions ont été restreintes.

Réaction du public et d’autres entreprises d’IA

L’événement a suscité une réaction négative forte dans les communautés en ligne. Les personnes qui ont annoncé l’arrêt d’utilisation de ChatGPT ont commencé à recevoir des retours positifs. Il est important de noter que le refus des « lignes rouges » n’est pas obligatoire pour tous les grands producteurs d’IA :

- Google avait auparavant introduit une restriction similaire dans ses règles internes, mais l’a déjà annulée.
- Microsoft permet l’utilisation de l’IA dans les armes à condition qu’un humain tire.
- Amazon se limite au principe général d’une « utilisation responsable » sans détails spécifiques.

Position d’OpenAI et cadre juridique

Sam Altman a répété son engagement à respecter les « lignes rouges » concernant l’arme autonome et la surveillance massive, mais n’a pas précisé les mécanismes de mise en œuvre. Il s’est référé à la législation américaine existante qui permet la collecte de données sur des personnes non américaines à des fins de sécurité.

Pour le grand public, OpenAI a présenté au Pentagone une interprétation flexible de ce qui est considéré comme légal, tandis qu’Anthropic a maintenu un contrôle strict sur l’application de ses technologies. En conséquence, le produit Claude AI d’Anthropic est devenu leader parmi les applications officielles pour Android et iOS, et a également été lancé sur Windows 11.

Commentaires (0)

Partagez votre avis — merci de rester courtois et dans le sujet.

Pas encore de commentaires. Laissez un commentaire et partagez votre avis !

Pour laisser un commentaire, connectez-vous.

Connectez-vous pour commenter