Microsoft propose une solution pour arrêter la diffusion de deepfakes sur Internet
Microsoft lance un nouveau jeu de normes pour vérifier l’authenticité du contenu en ligne
Microsoft a annoncé la création de « normes techniques » pour évaluer la véracité des contenus qui apparaissent sur le web. L’objectif est d’aider les développeurs d’IA et les plateformes sociales à déterminer si des images ou vidéos ont été modifiées par des outils numériques (par ex. des deepfakes) et dans quelle mesure leurs méthodes de documentation sont fiables.
Comment fonctionne le système de vérification
* Exemple avec un tableau de Rembrandt
- Un journal détaillé de provenance est créé : lieux de stockage, propriétaires précédents.
- Le tableau est numérisé, et à partir des coups de pinceau une signature mathématique est générée – « empreinte digitale numérique ».
- Lorsqu’il est exposé au musée, le visiteur peut ouvrir ces données pour vérifier l’originalité.
* Méthodes déjà en usage
Microsoft a étudié 60 combinaisons de techniques existantes (suppression des métadonnées, petits changements, manipulation ciblée). Pour chaque modèle, un comportement dans divers scénarios a été simulé.
Les chercheurs ont identifié :
- Des combinaisons fiables – pouvant être présentées à un large public.
- Des combinaisons non fiables – ne faisant qu’alourdir la situation et créer plus de confusion.
Pourquoi c’est important
* La législation exige la transparence des IA (par ex. « Loi sur la transparence de l’IA » en Californie).
* Microsoft n’a pas encore annoncé si elle appliquera ces normes à ses services : Copilot, Azure, OpenAI et LinkedIn.
Les normes ne déterminent pas la véracité du contenu ; elles indiquent simplement si le matériel a été manipulé et d’où il provient. Si l’industrie les adopte, créer un contenu trompeur deviendra nettement plus difficile.
État de l’industrie
| Entreprise | Action | Statut |
|------------|--------|--------|
| Microsoft C2PA (2021) – suivi de la provenance | En cours de développement | |
| Google | Filigranes pour le contenu généré par IA (depuis 2023) | Déploiement actif |
Mais l’ensemble complet d’outils de Microsoft pourrait rester un « projet » si les acteurs du marché perçoivent une menace à leurs modèles économiques.
Efficacité des solutions existantes
* Une étude a montré que seulement 30 % des publications sur Instagram, LinkedIn, Pinterest, TikTok et YouTube sont correctement marquées comme créées par IA.
* Le déploiement rapide d’outils de vérification est risqué : les pannes peuvent miner la confiance des utilisateurs.
Des mécanismes de vérification complets sont préférables. Par ex., si une image fiable subit un léger retouche par IA, la plateforme pourrait la classer à tort comme entièrement générée. Une approche intégrée réduit le risque de faux positifs.
Conclusion
Microsoft propose un ensemble structuré de normes pour détecter la manipulation numérique du contenu. Ces outils visent à accroître la transparence et la confiance dans les matériaux en ligne, mais leur succès dépendra de l’adoption par l’industrie et de la fiabilité des vérifications intégrées.
Commentaires (0)
Partagez votre avis — merci de rester courtois et dans le sujet.
Connectez-vous pour commenter