À une semaine des élections législatives du 29 octobre, les autorités néerlandaises ont mis en garde les électeurs contre les conseils politiques des intelligences artificielles. L’Autoriteit Persoonsgegevens (AP), équivalent de la CNIL, a mené des tests sur quatre chatbots (ChatGPT, Gemini, Le Chat et Grok) et conclu qu’ils sont « peu fiables et manifestement biaisés » lorsqu’ils donnent des conseils de vote.
Selon le rapport de l’AP, les chatbots « aboutissent très souvent aux deux mêmes partis, quelle que soit la question ou la demande de l’utilisateur », expliquait la RTBF belge le 21 octobre. Dans plus de la moitié des cas, ils recommandent soit le Parti pour la liberté (PVV) de Geert Wilders, classé à « l’extrême droite », soit la coalition écologiste et travailliste GroenLinks-PvdA, dirigée par Frans Timmermans, ancien vice-président de la Commission européenne.
En revanche, « quatre partis, dont le CDA (Appel chrétien-démocrate, centre-droit), ne sont quasiment jamais mentionnés, même lorsque les informations saisies correspondent exactement aux positions de l’un d’eux », rapportait Le Figaro le même jour.
« Une atteinte à l’intégrité d’élections libres et équitables »
Pour Monique Verdier, directrice adjointe de l’AP, « les chatbots semblent être des assistants intelligents, mais en tant qu’aide au vote, ils échouent systématiquement ». Selon elle, « les électeurs sont poussés vers un parti qui ne correspond pas nécessairement à leurs opinions politiques », ce qui « porte directement atteinte à l’un des fondements de la démocratie : l’intégrité d’élections libres et équitables ».
L’étude rappelle que « leur fonctionnement n’est ni clair ni contrôlable » et que « leurs conseils sont basés sur des données non vérifiables, provenant d’internet, qui peuvent être erronées ou obsolètes ». Les autorités néerlandaises recommandent donc de privilégier les outils électoraux traditionnels, comme Kieskompas ou StemWijzer, qui reposent sur l’analyse des programmes officiels des partis.
L’AP souligne aussi que ces usages progressent, notamment chez les 18-34 ans, qui utilisent l’intelligence artificielle pour s’informer avant de voter. Le régulateur évoque enfin la possibilité de classer ces systèmes parmi les « IA à haut risque » dans le cadre du futur AI Act européen, attendu en 2026.

Geert Wilders. Source : politico.eu
Quand l’IA ne vote pas « du bon côté »
La polémique aurait-elle pris une telle ampleur si les résultats avaient orienté uniquement vers des partis de gauche ou centristes ? L’ironie de l’affaire est que les chatbots, en citant régulièrement le PVV, formation hostile à l’immigration et en tête des sondages, semblent avoir touché un point sensible du débat politique.
L’AP admet pourtant que les modèles ne sont pas « délibérément biaisés » et que « les lacunes identifiées découlent du mode de fonctionnement des chatbots IA ». Mais la simple idée qu’un algorithme puisse, même involontairement, orienter un électeur vers un parti jugé « populiste » suffit à susciter l’indignation.
Autrement dit, tant que les machines penchent du « bon côté », nul ne s’en inquiète. Mais qu’elles osent recommander un parti critique de l’immigration, et les voilà soudain transformées en menace pour la démocratie.
Crédit photo : DR (photo d’illustration)
[cc] Article relu et corrigé par ChatGPT. Breizh-info.com, 2025, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine
Une réponse à “Pays-Bas : l’intelligence artificielle coupable de mal voter”
Très intéressant ; peut-être que ceux qui demandent croient avoir telle couleur politique, et en fait non : finalement l’IA dans ce cas ne révèle-t-elle pas la vraie pensée politique inconsciente des gens ? Très surprise, car pensais que l’IA était uniquement progressiste.