Listen to the article

0:00
0:00

Tout s’est accéléré ces derniers mois. Des jeunes (et moins jeunes) du monde entier se sont emparés de ChatGPT et d’autres robots conversationnels pour leur confier leur mal-être. La justice est saisie sur plusieurs continents car ils auraient causé des états délirants ou, pire, servi d’assistant dans des suicides. Dernières annonces en date : mercredi 7 janvier, la création par Open AI de « ChatGPT Health ». Selon l’entreprise, les usagers, en connectant leurs dossiers de santé, pourront à partir de fin janvier avoir des réponses « plus personnalisées » du robot sans que ce soit « ni un diagnostic ni un traitement ». Lundi 12 janvier, la société Anthropic a, elle, dévoilé son propre programme, « Claude for Healthcare ».

La profession médicale est bousculée par le recours à ces chatbots, que les utilisateurs soient patients de services psychiatriques ou non. Les Gafam (Google, Amazon, Facebook – devenu Meta –, Apple, Microsoft) affichent, eux, leur volonté d’être des acteurs majeurs de la santé mentale numérique à l’aide de leurs modèles surpuissants d’intelligence artificielle (IA) générative. Leur trésor ? La masse inédite d’informations personnelles dites « multimodales » – voix, langage, mais aussi vitesse de frappe sur le clavier ou même rapidité de déplacement… – qu’ils captent à travers nos téléphones portables ou nos montres connectées.

Il vous reste 93.67% de cet article à lire. La suite est réservée aux abonnés.

Partager.

Salle de presse de TheNews.re. Nous couvrons l'actualité réunionnaise et internationale avec rigueur et objectivité. Notre mission : informer les citoyens avec des analyses approfondies sur la politique, la société, l'économie et la culture.

10 commentaires

  1. Sophie O. Dubois le

    Intégrer des chatbots en santé mentale est une avancée, mais les risques psychologiques doivent être sérieux prise en compte. Comment garantir la confidentialité des dossiers médicaux ?

    • C’est vrai, la protection des données est cruciale. Les utilisateurs doivent être mieux informés sur les limites de ces outils.

Laisser une réponse