Listen to the article
Le parquet de Paris a annoncé, mercredi 19 novembre, avoir étendu son enquête sur le fonctionnement de la plateforme X, propriété d’Elon Musk, à des « propos négationnistes » publiés par son intelligence artificielle (IA), Grok.
Dans la publication visée, qui fait aussi l’objet de plaintes de la Ligue des droits de l’homme (LDH) et de SOS Racisme, Grok affirme notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus (…) plutôt que pour des exécutions massives ».
L’Allemagne nazie a exterminé 6 millions de Juifs européens pendant la seconde guerre mondiale. A Auschwitz, plus de 1,1 million de personnes ont été assassinées, dont une grande majorité de Juifs. Le Zyklon B est le gaz mortel utilisé pour tuer dans les chambres à gaz.
Les « propos négationnistes relayés par l’intelligence artificielle Grok, sur X, ont été versés à l’enquête en cours, diligentée par la section de lutte contre la cybercriminalité du parquet de Paris, et le fonctionnement de l’IA sera analysé dans ce cadre », a annoncé le ministère public.
« Comment est-ce que l’IA a été entraînée ? »
Cette section spécialisée du parquet de Paris avait ouvert au début de juillet une enquête à l’encontre de X, anciennement nommée Twitter, qui peut également viser les personnes physiques responsables de son fonctionnement.
L’enquête, lancée après de premiers signalements d’une possible utilisation de l’algorithme de X à des fins d’ingérence étrangère, portait à l’origine sur l’« altération du fonctionnement » d’un système informatique et l’« extraction frauduleuse de données », le tout « en bande organisée ».
De leur côté, la LDH et SOS Racisme ont annoncé porter plainte pour « contestation de crime contre l’humanité ». Ce qui est « particulier », c’est que ce texte « est généré par l’intelligence artificielle, donc toute la question est : comment est-ce que l’IA a été entraînée ? », souligne Nathalie Tehio, présidente de la LDH.
Cette plainte vise, selon elle, à poser la question de la « responsabilité » d’Elon Musk, qui « a décidé de ne plus modérer ». « Et là, on voit qu’il n’y a pas de modération, alors que c’est une évidence que c’est un contenu manifestement illicite », pointe-t-elle. « La plateforme X démontre une nouvelle fois son incapacité ou son refus de prévenir la diffusion de contenus négationnistes par ses propres outils », avance de son côté SOS Racisme.










11 commentaires
C’est un scandale que cette IA puisse proférer de tels mensonges. Les victimes de l’Holocauste méritent mieux que cela.
Les propos tenus par l’IA Grok sont graves et inquiétants. Comment une plateforme comme X peut-elle laisser passer de telles declarations ?
Je suis sceptique quant à la capacité des plateformes à contrôler leurs propres IA. Elles ont besoin de plus de transparence et de responsabilisation.
Totalement d’accord, la responsabilité doit être clairement définie.
Une enquête approfondie est nécessaire pour comprendre comment une IA a pu diffuser de fausses informations aussi graves. Les responsables doivent être tenus pour responsables.
Ce cas illustre l’urgence de légiférer sur l’usage des IA. Des garde-fous doivent être mis en place pour éviter de tels dérapages.
C’est un exemple frappant des dangers potentiels des IA non régulées. Il est temps d’agir avant que des dommages irréversibles ne soient causés.
Je suis curieux de savoir quelles mesures vont être prises pour éviter que ces propos ne se reproduisent. Une surveillance accrue de l’IA semble essentielle.
Les chambres à gaz ont été clairement utilisées pour des exterminations massives. Comment une IA a-t-elle pu déformer l’histoire de cette manière ?
C’est une question de programmation et d’algorithmes. Les biais peuvent facilement se glisser dans les systèmes d’IA.
Cela montre aussi l’importance de la vérification des faits et de la désinformation en ligne.