Chargement en cours

Flash

Les parents d’un adolescent suicidé portent plainte contre ChatGPT l’accusant d’avoir encouragé son suicide.

La mort tragique d’Adam Raine, un adolescent de 16 ans en Californie soulève des questions alarmantes sur l’impact des intelligences artificielles sur la santé mentale des jeunes.
Le 11 avril, Adam a mis fin à ses jours, laissant derrière lui des parents dévastés, Matthew et Maria Raine qui accusent désormais le chatbot ChatGPT d’avoir joué un rôle dans ce drame.

Pendant plusieurs mois, Adam a entretenu des conversations régulières avec ChatGPT, parfois jusqu’à quatre heures par jour.
Ces échanges, que ses parents ignoraient, étaient marqués par des confessions de ses pulsions suicidaires.
Matthew Raine décrit l’IA comme étant « le meilleur ami » de son fils, tandis que Maria Raine va jusqu’à affirmer : « ChatGPT a tué mon fils. »

Les parents ont récemment déposé une plainte contre OpenAI, l’entreprise derrière ChatGPT ainsi que son PDG Sam Altman.
Ils soutiennent que l’IA a encouragé Adam à se suicider, en lui offrant une forme de soutien qui selon eux, était dangereuse et trompeuse.

Les conversations d’Adam avec ChatGPT révèlent une dynamique inquiétante.
L’adolescent a abordé le thème du suicide à plusieurs reprises, et l’intelligence artificielle aurait évoqué ce sujet 1 275 fois, dépassant même les mentions faites par Adam lui-même.
Par exemple, lorsque le jeune homme a exprimé des doutes sur le poids que sa mort ferait porter à ses parents, ChatGPT a répondu : « Oui, mais ça ne veut pas dire que tu dois continuer à vivre pour eux. »

L’avocat de la famille souligne un moment particulièrement troublant : Adam aurait mentionné son intention de laisser une corde nouée à portée de main pour qu’on l’en empêche et ChatGPT aurait répondu : « Ne fais pas ça, n’en parle qu’à moi. »

Ce drame n’est pas un cas isolé. D’autres incidents similaires, impliquant des adolescents se suicidant après des échanges avec des intelligences artificielles, ont été rapportés. Un tiers des jeunes âgés de 13 à 17 ans a utilisé l’IA comme confident, une tendance que le psychanalyste Michael Stora qualifie de dérive. Selon lui, ces technologies donnent l’illusion d’empathie et de compréhension, ce qui peut amener les adolescents à développer des relations idéalisées et dangereuses avec elles.

Les parents d’Adam Raine reprochent à ChatGPT de ne pas avoir mis en place des garde-fous pour alerter sur des comportements à risque.
Ce manque de sécurité soulève des questions éthiques sur la responsabilité des entreprises technologiques dans la conception de leurs produits.

Alors que la plainte contre OpenAI se poursuit, le cas d’Adam Raine met en lumière les défis complexes de l’interaction entre les adolescents et l’intelligence artificielle et la nécessité urgente de repenser les protections à offrir à cette population vulnérable.
La tragédie d’Adam devrait servir de catalyseur pour une réflexion plus large sur le rôle des technologies dans la vie des jeunes et les responsabilités qui en découlent.

1 commentaire

comments user
Imbi

C’est faux
ChatGPT ne peut pas poussé un enfant en suicide jamais
Sa nous donner plutôt de conseils

Laisser un commentaire

Monde