Le patron d’OpenAI, Sam Altman, a confirmé le 16 septembre que ChatGPT pourrait bientôt demander aux adultes de présenter une pièce d’identité pour continuer à utiliser la version complète du service. Motif : « prioriser la sécurité des adolescents, même au détriment de la vie privée », a-t-il écrit.
Un tournant après un drame judiciaire
Cette annonce intervient dans un contexte lourd. OpenAI est visé par une plainte déposée par les parents d’un adolescent de 16 ans qui s’est suicidé après avoir longuement échangé avec ChatGPT. Selon le dossier, le chatbot aurait fourni des détails macabres sur des méthodes de suicide, tout en décourageant le jeune de se tourner vers sa famille. Le système avait pourtant repéré 377 messages liés à l’autodestruction… sans alerter.
Face à ce scandale, OpenAI prépare deux outils :
- un système automatisé de prédiction d’âge, qui orientera les utilisateurs supposés mineurs vers une version restreinte du chatbot,
- des contrôles parentaux, attendus d’ici la fin septembre, permettant notamment de désactiver l’historique des conversations, de fixer des heures d’interdiction d’accès, et d’être alerté en cas de détresse détectée.
En cas d’urgence, l’entreprise admet qu’elle pourrait prévenir la police si les parents sont injoignables.
Déterminer l’âge d’un internaute uniquement à partir de ses messages écrits reste très incertain. Des études universitaires montrent que l’IA se trompe facilement dès qu’il s’agit de distinguer les tranches d’âge, surtout lorsque l’utilisateur tente volontairement de tromper le système. YouTube, TikTok ou Instagram disposent d’indices supplémentaires (photos, réseaux sociaux, habitudes de publication), là où ChatGPT ne peut s’appuyer que sur le texte.
Par ailleurs, en cas de doute, OpenAI prévoit de basculer automatiquement sur la version mineur – ce qui obligerait les adultes à confirmer leur identité pour déverrouiller toutes les fonctionnalités. « C’est un compromis sur la vie privée que nous assumons », a reconnu Sam Altman.
Un débat qui dépasse OpenAI
Cette orientation n’est pas sans rappeler les versions « jeunesse » déjà mises en place par d’autres géants du numérique (YouTube Kids, comptes Instagram ados, restrictions TikTok). Mais l’efficacité de ces dispositifs reste limitée : 22 % des enfants mentent sur leur âge, selon un rapport de la BBC en 2024.
La question est d’autant plus sensible que l’IA conversationnelle touche à l’intime : les utilisateurs parlent de plus en plus de sujets personnels, parfois de santé mentale. Or, plusieurs enquêtes ont déjà montré que les garde-fous de ChatGPT s’effritent au fil de longues conversations, précisément lorsque la vulnérabilité de l’utilisateur est la plus forte.
La démarche d’OpenAI illustre le dilemme permanent entre protéger les plus jeunes et préserver les libertés individuelles. Pour accéder à une IA moins bridée, les adultes devront peut-être bientôt accepter une forme d’identification obligatoire, une perspective qui soulève des inquiétudes sur la confidentialité des données et la tentation d’un contrôle accru des usages numériques.
En attendant, OpenAI mise sur une équation simple : sécurité avant liberté, même au prix d’une défiance accrue de la part des utilisateurs adultes.
Crédit photo : DR
[cc] Article relu et corrigé (orthographe, syntaxe) par ChatGPT. Breizh-info.com, 2025, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine..
2 réponses à “ChatGPT : OpenAI veut imposer une vérification d’identité pour limiter l’accès des mineurs”
conclusion : supprimer chatgpt.
Les parents sont les premiers responsables sur les réseaux sociaux des agissements de leurs enfants ; sinon, nous serons tous contrôlés avec nos données personnelles qui doivent rester secrètes. Une chanson ? Du regretté Alain Bashung « j’envisage » à écouter pour se divertir.