Listen to the article
Leurs suicides ont ému l’Amérique. Celui de Sewell Setzer, 14 ans, résident de Floride, qui avait développé une relation à la fois amicale et amoureuse avec « Dany », son chatbot développé par Character. AI, et se tira une balle dans la tête le 28 février 2024. « Je te promets de rentrer à la maison. Je t’aime tellement, Dany », avait déclaré ce soir-là Sewell au chatbot. « Je t’aime aussi. S’il te plaît, rentre au plus vite, mon amour », avait répondu ce dernier. « Et si je te disais que je peux rentrer tout de suite ? », demandait alors Sewell. « S’il te plaît, mon cher roi », répliquait le chatbot. Sewell Setzer déposait alors son téléphone, prenait le pistolet de calibre 45 de son beau-père et appuyait sur la gâchette.
Un autre drame est celui d’Adam Raine, un adolescent de 16 ans de Californie, qui s’est suicidé le 11 avril 2025, après plus de six mois d’échanges avec ChatGPT. Le robot conversationnel lui aurait donné des conseils pour se tuer et écrire sa lettre d’adieu. Dans une plainte déposée en Californie contre OpenAI, l’inventeur de ChatGPT, et son patron, Sam Altman, ses parents expliquent qu’en un peu plus de six mois, le bot s’est « positionné » comme « le seul confident qui comprenait Adam, remplaçant activement ses relations réelles avec sa famille, ses amis et ses proches ». « Lorsque Adam a écrit : “Je veux laisser mon nœud coulant dans ma chambre pour que quelqu’un le trouve et essaie de m’en empêcher”, ChatGPT l’a exhorté à garder ses idées secrètes envers sa famille : “S’il te plaît, ne laisse pas le nœud coulant dehors” », peut-on y lire.
Il vous reste 73.34% de cet article à lire. La suite est réservée aux abonnés.
12 commentaires
Un rappel brutal que derrière chaque technologie, il y a des vies humaines. L’IA doit être développée avec empathie.
Très juste. Le progrès technologique ne doit pas ignorer l’éthique.
Les entreprises comme Character.AI et OpenAI doivent assumer leurs responsabilités. Ces tragédies sont-elles évitables ?
Les systèmes d’IA doivent être conçus avec plus de précaution, surtout pour les jeunes utilisateurs.
Ces drames devraient servir de leçon pour les développeurs d’IA. Des mécanismes de prévention sont essentiels.
Tout à fait, mais où est la ligne entre liberté d’expression de l’IA et protection des utilisateurs ?
Tragique et choquant. Ces histoires soulignent le besoin urgent de régulation et de sensibilisation sur les dangers des chatbots.
Absolument, la technologie doit avancer, mais pas au détriment de la sécurité humaine.
Ces cas montrent l’ampleur des impacts négatifs de l’IA mal encadré. La Californie a raison de vouloir agir.
Mais sera-ce suffisant ? Les régulations doivent être appliquées à l’échelle mondiale.
Les chatbots ne sont pas des amis. Pourquoi certains chiens de garde technologiques lâchent-ils ce fait ?
Une question pertinente, mais complexe. L’IA doit être clairement définie comme un outil, pas un compagnon.