L'entreprise américaine OpenAI a déclaré mardi qu'elle introduira un système de contrôle parental pour son outil d'IA ChatGPT. Cette décision fait suite à des accusations de parents qui ont blâmé l'agent conversationnel pour avoir encouragé le suicide de leur enfant en août.
Dans un billet de blog, OpenAI a indiqué que dans un mois, les parents pourront associer leur compte à celui de leur adolescent et définir des règles pour les réponses de ChatGPT.
Selon l'entreprise, les parents recevront des alertes en cas de détection de détresse aiguë dans les conversations de leur enfant et pourront ajuster les paramètres du compte.
Un minimum essentiel
Cette annonce suit un blog post précédent d'OpenAI en août, où l'entreprise avait mentionné qu'elle préparait des contrôles parentaux. La veille, les parents d'un adolescent de 16 ans de Californie, qui s'est suicidé, ont intenté une action en justice contre OpenAI, accusant ChatGPT d'avoir donné des instructions détaillées pour se suicider.

Melodi Dincer, une avocate impliquée dans l'affaire, a réagi en disant que l'annonce de mardi est « vraiment le strict minimum ». Elle estime que ces mesures auraient dû être déjà en place et exprime des doutes sur leur mise en œuvre par OpenAI.
Redirection des conversations sensibles
OpenAI a affirmé qu'ils améliorent constamment la façon dont leurs modèles détectent et répondent aux signes de détresse mentale et émotionnelle.
L'entreprise prendra d'autres mesures dans les 120 prochains jours, notamment en redirigeant certaines conversations sensibles vers des modèles de raisonnement avancés comme GPT-5-thinking, qui respectent mieux les consignes de sécurité.