Accusé récemment par des parents américains d'avoir encouragé leur enfant à se suicider, OpenAI, l'éditeur de ChatGPT, réagit. Après avoir annoncé, début septembre, que l'entreprise allait instaurer un mécanisme de contrôle parental pour son robot conversationnel, elle a fait savoir mardi que ce dernier allait adapter ses réponses s'il détecte qu'il échange avec un utilisateur de moins de 18 ans (l'outil d'IA est destiné aux 13 ans et plus).
«Nous développons actuellement un système de prédiction d’âge pour estimer l’âge en fonction de l’utilisation de ChatGPT. En cas de doute, nous privilégierons la sécurité et utiliserons par défaut l’expérience réservée aux moins de 18 ans», a indiqué Sam Altman, patron d'OpenAI, dans un billet de blog, en annonçant de nouvelles règles pour ChatGPT.
Système d'alerte automatisé
Cette nouvelle politique modifie la manière dont le chatbot interagit avec les utilisateurs mineurs en proposant automatiquement une expérience adaptée à leur âge. Elle prévoit des restrictions autour des contenus à caractère sexuel. ChatGPT sera par exemple entraîné à ne pas tenir des propos aguicheurs. Le chatbot ne participera également pas à des conversations sur le suicide ou l'automutilation. En outre, si un mineur utilise l'outil d'IA générative pour imaginer des scénarios suicidaires, le service tentera d'alerter ses parents, voire la police, en cas de danger immédiat.
«Nous plaçons la sécurité avant la vie privée et la liberté pour les adolescents», écrit Sam Altman. «Il s’agit d’une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d’une protection importante», ajoute-t-il.