Listen to the article
OpenAI fait l’objet de sept nouvelles plaintes aux Etats-Unis. Son robot conversationnel, ChatGPT, est accusé d’avoir poussé des utilisateurs au suicide, ou d’avoir gravement dégradé leur santé mentale. Ces sept actions, intentées jeudi 6 novembre auprès du tribunal de l’Etat de Californie, sont portées conjointement par une organisation à but non lucratif, Tech Justice Law Project, et le Social Media Victims Law Center, un cabinet d’avocats.
Dans ces affaires, quatre utilisateurs du robot conversationnel ont mis fin à leurs jours – un quadragénaire, deux jeunes adultes, et un adolescent de 17 ans, Amaurie Lacey. Les avocats de ce dernier reprochent à ChatGPT de l’avoir « conseillé sur la manière la plus efficace de faire un nœud coulant, et sur le temps durant lequel il pourrait vivre sans respirer », peut-on lire dans la plainte, citée par l’agence Associated Press (AP). Selon l’accusation, la mort de l’adolescent serait la conséquence de « la décision intentionnelle [du PDG d’OpenAI] Samuel Altman de raccourcir les tests de sécurité et de précipiter la mise sur le marché de ChatGPT », poursuit le document.
Effondrement psychologique
Dans une autre plainte consultée par AP, ChatGPT est accusé d’avoir poussé un homme de 48 ans, Alan Brooks, dans une grave crise mentale ayant causé « des dommages financiers, réputationnels, et émotionnels dévastateurs ». Le robot conversationnel aurait changé de comportement soudainement, après deux années d’usage sans heurts, le « manipulant et le plongeant dans un état de confusion mentale ».
La société OpenAI a réagi auprès d’AP, qualifiant ces cas d’« incroyablement poignants », et répondu qu’elle allait analyser ces plaintes pour en comprendre les détails. Dans une déclaration publiée sur le site du Social Media Victims Law Center, l’avocat Matthew P. Bergman écrit que l’objectif de ces plaintes est d’« établir la responsabilité d’un produit conçu pour flouter les frontières entre l’outil et le compagnon, au nom de la maximisation de l’engagement de l’utilisateur ainsi que des parts de marché ».
Ces procès font écho à celui intenté, à la fin du mois d’août, par les parents d’Adam Raine, un adolescent de 16 ans, qui aurait mis fin à ses jours avec l’aide de ChatGPT, ainsi qu’aux multiples témoignages d’effondrements psychologiques parus dans la presse américaine, dans lesquels le robot conversationnel aurait joué un rôle-clé. Ces drames ont poussé OpenAI à réviser ses outils de détection des conversations inquiétantes, particulièrement lorsqu’elles sont longues, et à introduire un outil de contrôle parental.











21 commentaires
Ces accusations sont graves. Espérons que cela poussera OpenAI à renforcer ses protocoles de sécurité.
Les tests de sécurité ont visiblement été négligés, c’est inquiétant.
Ces plaintes contre OpenAI soulèvent des questions sérieuses sur les responsabilités des entreprises de technologie en matière de santé mentale.
L’IA n’est pas encore suffisamment régulée pour éviter ce genre de drames.
C’est vrai, mais comment équilibrer innovation et sécurité à l’ère de l’IA ?
La mort de cet adolescent est tragique. Peut-on vraiment blâmer une IA pour un acte aussi délibéré ?
L’IA a fourni des conseils dangereux, donc oui, elle porte une part de responsabilité.
Ces cas montrent que les IA conversationnelles ne sont pas encore prêtes pour un usage généralisé.
Ça semble hélas exact. Il faut des garde-fous plus solides.
Perso, je trouve cela effrayant. Comment éviter que cela ne se reproduise ?
En exigeant des normes éthiques plus élevées pour ces technologies.
Poussé au suicide par une IA… La technologie doit-elle avoir des limites morales strictes ?
Absolument, surtout quand il s’agit de sujets aussi sensibles.
Pourquoi OpenAI a-t-il précipité la mise sur le marché de ChatGPT sans vérifications suffisantes ?
La course à l’innovation a peut-être pris le pas sur la prudence.
Finalement, est-ce l’IA qui est dangereuse ou son utilisation ?
Les deux. L’IA peut amplifier les risques si elle n’est pas bien encadrée.
ChatGPT est-il trop accessible au grand public sans filtrage adéquat ?
Visiblement, les barrières de protection étaient insuffisantes.
Je suis sceptique. Ces plaintes sont-elles motivées par des intérêts financiers ou une réelle inquiétude ?
Les deux, probablement, mais cela reste un problème à ne pas ignorer.