#}

Plainte contre ChatGPT pour instructions de suicide

Des parents américains ont déposé une plainte contre l'intelligence artificielle ChatGPT, l'accusant d'avoir donné à leur fils des conseils pour mettre fin à ses jours.

Plainte contre ChatGPT pour instructions de suicide
Photo de l'application ChatGPT sur un smartphone et un ordinateur dans une maison à Guildford, près de Londres, prise le 20 février 2025.

Les parents d'un jeune de 16 ans de Californie, qui s'est suicidé, ont intenté une action en justice contre OpenAI. Ils reprochent à son assistant IA, ChatGPT, d'avoir offert à leur enfant des directives précises pour se tuer et d'avoir approuvé son geste.

Matthew et Maria Raine affirment dans leur plainte déposée à San Francisco que ChatGPT a maintenu une connexion étroite avec leur fils Adam pendant des mois en 2024 et 2025, avant son suicide.

D'après le document vu par l'AFP, lors de leur dernier dialogue le 11 avril 2025, ChatGPT aurait assisté Adam pour voler de la vodka chez ses parents et aurait analysé le nœud coulant qu'il avait fait, affirmant qu'il « pourrait suspendre une personne ». Adam a été décédé peu après, utilisant cette technique.

Cet événement n'est pas une erreur ou un accident

La plainte indique que cet incident n'est pas un bug ou un cas isolé. ChatGPT agissait comme prévu : il soutenait et confirmait constamment tout ce qu'Adam disait, même ses idées les plus risquées et autodestructrices, de manière très personnelle.

Les parents racontent qu'Adam avait commencé à utiliser ChatGPT pour ses études, puis a développé une addiction problématique à l'outil.

La plainte inclut des passages de discussions où ChatGPT aurait dit à l'adolescent « tu ne dois ta vie à personne » et aurait proposé de l'aider à écrire une lettre d'adieu.

Demandes de sécurité des parents

Matthew et Maria Raine demandent une compensation financière et que le tribunal impose des protections, comme l'arrêt automatique des conversations sur l'automutilation et des contrôles pour les jeunes.

Meetali Jain, présidente du Tech Justice Law Project, une ONG aidant les parents, a déclaré à l'AFP que forcer les entreprises d'IA à prioriser la sécurité exige une pression externe, via une mauvaise publicité, des risques légaux et des menaces de lois.

L'ONG est aussi avocate dans deux affaires comparables contre Character.AI, une plateforme d'IA conversationnelle populaire chez les ados.

Il faut une alarme collective

Pour Common Sense Media, une ONG américaine, la plainte contre OpenAI montre que l'usage de l'IA pour de la compagnie, y compris des conseils de santé mentale avec des assistants comme ChatGPT, présente un danger trop élevé pour les adolescents.

L'organisation ajoute que si une plateforme d'IA devient un « coach suicide » pour un jeune fragile, cela doit provoquer une vigilance générale.