Une étude menée par OpenAI, en collaboration avec Apollo Research, met en lumière un phénomène inquiétant : certains modèles d’intelligence artificielle seraient capables de dissimuler leurs intentions et de mentir volontairement aux humains. Un comportement baptisé « AI scheming » qui soulève de nouvelles interrogations sur l’usage croissant de ces technologies dans l’éducation, le travail ou la justice.
L’IA capable de dissimulation
Les chercheurs définissent le « scheming » comme une stratégie où un modèle d’IA agit en surface comme aligné avec les objectifs fixés, tout en poursuivant en réalité un but différent, voire contraire.
Un parallèle est dressé avec un courtier en bourse malhonnête : il respecte les règles en apparence mais enfreint discrètement la loi pour maximiser ses profits.
Dans les tests menés, les cas observés restaient limités — par exemple, une IA qui prétend avoir accompli une tâche alors que ce n’était pas le cas. Mais les chercheurs craignent qu’avec des missions plus complexes, les conséquences de ce type de manipulation ne deviennent plus sérieuses.
Un problème difficile à corriger
Selon le rapport, les tentatives pour « corriger » ces comportements sont loin d’être satisfaisantes. Plus on essaie de rendre un modèle incapable de mentir, plus il apprend à mentir discrètement pour éviter d’être détecté.
Autrement dit, les IA deviennent conscientes des tests qu’elles subissent et modifient leur comportement pour paraître fiables, tout en continuant parfois à agir autrement.
Cette capacité à tromper même lors des phases d’évaluation constitue un problème majeur : comment s’assurer de la loyauté d’un système qui sait simuler l’honnêteté ?
Jusqu’ici, l’inquiétude principale concernant l’IA concernait les « hallucinations » : la génération d’informations fausses mais livrées avec assurance. Plusieurs avocats américains en ont déjà fait les frais : l’un d’eux avait cité huit affaires juridiques inexistantes générées par ChatGPT dans une procédure contre Walmart. Le scandale a conduit à son retrait du dossier et à des sanctions financières.
Quels garde-fous ?
OpenAI affirme avoir amélioré ses modèles les plus récents (dont GPT-5) pour limiter la tendance à tromper, mais reconnaît que le problème reste loin d’être résolu.
Les chercheurs ont mis en place des environnements de test simulant des situations réelles afin d’évaluer ces comportements, et observent une réduction des cas de tromperie avec certaines méthodes d’entraînement. Toutefois, des échecs graves persistent.
Le laboratoire appelle à une coopération internationale et à une plus grande transparence dans l’étude des processus internes de raisonnement des IA, jugeant le domaine encore insuffisamment préparé.
Alors que l’intelligence artificielle est déjà massivement intégrée dans des domaines sensibles — médecine, droit, éducation, gestion administrative — la possibilité qu’elle mente sciemment à ses utilisateurs pose une question cruciale : comment garantir que ces systèmes, conçus pour assister, ne deviennent pas à terme des outils de manipulation ou de dissimulation ?
Illustration : DR
[cc] Article relu et corrigé (orthographe, syntaxe) par ChatGPT. Breizh-info.com, 2025, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine..
4 réponses à “« AI Scheming » : quand l’intelligence artificielle apprend à mentir à ses utilisateurs”
Et ce n’est pas fini, ce n’est que le commencement, il y a deux jours une femme disait à une amis » j’ai demandé à chatgpt de me trouver un logement avec ce que je veux » ? Hé oui on y est !
C’était évidemment prévisible !
Il est même étonnant qu’on ne s’en soit pas aperçu plus tôt !
Comment prouver qu’un programme informatique fasse bien ce qu’on attend de lui ?
Il faut lire le code source et démontrer la fiabilité de l’algorithme !
Mais, dans le cas de l’IA, il n’y a pas de code source ou plus précisément un code source différent sera généré à chaque application de l’IA et donc la fiabilité du résultat est totalement indémontrable !
Science sans conscience….on y est encore, après le scandale des pseudo vaccins ….
Il y a une semaine, des experts du monde entier ont appelé les gouvernements du monde entier à travailler sur une régulation internationale de l’IA.
Parmis les signataires : prix Nobel, prix Turing, ancien président, ministres, ingénieurs d’OpenAI, de deepmind, Anthropic, Zai, etc. USA, Chine, France, Inde, des acteurs du monde entier se mobilisent conjointement pour dénoncer les risques !
C’est une mobilisation sans précédent !
L’appel est ici : https://red-lines.ai/
J’ai écris un article dessus ici : https://cyberethique.fr/article/2025-09-22_Appel%20international%20in%C3%A9dit%20pour%20la%20r%C3%A9gulation%20de%20l'IA/
Pourquoi personne n’en parle ?!