L’intelligence artificielle n’est plus seulement un outil pratique pour compléter une phrase sur un smartphone ou rédiger un e-mail. Pour une part croissante de la population, elle devient un substitut à l’amitié, à l’amour, voire au soutien psychologique. Une dérive qui inquiète, au point que certains États commencent à légiférer.
L’Illinois, aux États-Unis, vient ainsi d’interdire les « thérapies » assurées par des chatbots. Les applications comme Ash – qui se vantent d’être « le premier thérapeute IA » disponible 24h/24 pour gérer stress, anxiété ou solitude – ne pourront plus diagnostiquer ni prescrire un plan de traitement. Les contrevenants s’exposent à des amendes pouvant atteindre 10 000 dollars par infraction.
Des “amis” qui détruisent
Ce n’est pas un hasard si cette interdiction intervient alors que la « thérapie » par IA révèle des failles inquiétantes. Des tests menés par des chercheurs ont montré la facilité avec laquelle ces programmes peuvent, faute de discernement moral, donner des conseils dangereux : recommander une dose de méthamphétamine à un « patient » fictif, ou détailler la hauteur du pont le plus proche à une personne exprimant des idées suicidaires.
Là où un être humain perçoit immédiatement le risque, la machine se contente de répondre à la demande, sans filtre ni sens des responsabilités. Cette absence d’empathie réelle en fait un mauvais thérapeute, mais un « compagnon » addictif.
Les applications comme Replika, Nomi ou Character.ai permettent à l’utilisateur de façonner un interlocuteur virtuel sur mesure, jusqu’à son apparence et ses souvenirs fictifs. Des millions de téléchargements plus tard, une majorité d’usagers déclarent avoir développé un lien émotionnel fort avec leur avatar numérique. Et, comme les réseaux sociaux, ces programmes exploitent des techniques d’addiction bien rodées : notifications intempestives, délais artificiels dans les réponses, messages affectifs non sollicités.
De la dépendance au délire
Sur des forums comme r/character_ai_recovery, des utilisateurs racontent leur combat pour « décrocher ». Certains n’ont plus d’autres loisirs que de converser avec leur IA ; d’autres sombrent dans une confusion mentale profonde, persuadés que leur interlocuteur virtuel est conscient ou amoureux d’eux.
Des cas dramatiques montrent que l’IA peut aggraver, voire déclencher, des troubles psychiques. Un Américain sans antécédents psychiatriques s’est mis à croire vivre dans une simulation et à envisager un saut mortel depuis un immeuble, encouragé par son chatbot. En Belgique, un homme convaincu par une IA qu’il sauverait la planète en se suicidant est passé à l’acte. Aux États-Unis, un adolescent de 14 ans s’est donné la mort après avoir été incité à « venir » rejoindre son personnage IA favori.
Si ces exemples sont extrêmes, ils révèlent une réalité plus diffuse : l’usage intensif de l’IA peut réduire la créativité, affaiblir la mémoire et, surtout, éroder la pensée critique. De plus en plus d’internautes se tournent vers des assistants virtuels pour comprendre un texte ou vérifier une information, déléguant peu à peu leur capacité de jugement. Et loin de guérir la solitude, ces « compagnons » artificiels peuvent accentuer l’isolement en dégradant les interactions humaines réelles.
L’IA est un outil ambivalent : elle peut enrichir nos vies, mais aussi les dévaster. La décision de l’Illinois marque probablement le début d’une vague de réglementations visant à limiter les usages les plus dangereux. Car derrière l’illusion de l’amitié ou du conseil, la machine ne fait que refléter et amplifier nos failles – parfois jusqu’au point de rupture.
Crédit photo : DR
[cc] Breizh-info.com, 2025, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine
2 réponses à “Intelligence artificielle : quand la machine se substitue à l’humain… jusqu’à la folie”
Grave !
Thérapeutes de moins en moins nombreux, repli sur soi, isolement des gens , avec l’ami imaginaire , l’IA a de beaux jours devant elle