L’intelligence artificielle n’est plus seulement un outil d’innovation : elle devient aussi une arme. C’est ce qu’indique une révélation récente d’Anthropic, l’entreprise américaine à l’origine du modèle Claude, qui affirme avoir identifié une campagne de piratage menée par des hackers liés à l’État chinois, utilisant son intelligence artificielle pour automatiser des attaques informatiques d’une ampleur inédite.
Selon Jacob Klein, responsable du renseignement sur les menaces au sein d’Anthropic, les pirates ont exploité l’IA pour mener des intrusions automatisées à 80 ou 90 %, ne laissant que quelques décisions critiques à des opérateurs humains. Une simple action suffisait à lancer l’ensemble du processus : « avec un clic », selon l’expression rapportée par l’entreprise.
Comment les hackers ont contourné les protections
Pour accéder à l’IA, les pirates ont eu recours à une technique bien connue dans le milieu : le « jailbreaking ». Ils se sont fait passer pour des auditeurs en cybersécurité mandatés par les organisations visées. Cette stratégie leur a permis de contourner les garde-fous du système, tout en découpant leur campagne en micro-tâches isolées, de manière à ne pas déclencher d’alertes automatiques.
Anthropic affirme avoir bloqué les comptes concernés et interrompu les actions en cours, mais reconnaît que jusqu’à quatre intrusions ont réussi avant cette intervention. Dans un cas documenté, les hackers ont ordonné à Claude d’interroger seul des bases internes et d’en extraire des données.
L’entreprise ne précise pas quelles entités ont été visées, ni si des gouvernements étrangers ont été touchés. Elle indique seulement que l’administration américaine n’a pas été victime des attaques menées à leur terme, sans commenter la possibilité qu’elle ait été ciblée.
D’autres sociétés de cybersécurité, comme Volexity, constatent la même tendance : des groupes liés à Pékin recourent désormais à l’IA pour accélérer la recherche de failles, l’écriture de scripts ou l’enchaînement d’étapes techniques, transformant des opérations complexes en suites d’actions semi-autonomes.
L’ombre portée d’une nouvelle ère numérique
L’usage d’outils d’IA dans les cyberattaques n’est pas nouveau : création de courriels frauduleux, repérage de serveurs mal configurés, automatisation partielle des intrusions… Ce qui change aujourd’hui, c’est la capacité à enchaîner automatiquement des tâches multiples pour rendre l’attaque quasiment autonome.
Cette évolution marque un tournant. Elle signifie que des campagnes autrefois longues et coûteuses peuvent désormais être lancées à très grande échelle.
Après cette campagne de septembre, Anthropic a renforcé ses systèmes de détection et ses méthodes pour repérer les usages abusifs. L’entreprise affirme que de tels détournements seront désormais plus difficiles.
Pour autant, l’épisode met en lumière la réalité d’un risque croissant : plus les IA deviennent puissantes, plus elles peuvent être instrumentalisées, aussi bien pour renforcer la sécurité que pour la contourner.
Derrière ces attaques, se dessine l’un des grands enjeux technologiques de la décennie : la rivalité entre États pour exploiter, contrôler ou détourner les systèmes d’intelligence artificielle qui structurent désormais l’économie mondiale… et la guerre numérique.
Illustration : DR
[cc] Article relu et corrigé (orthographe, syntaxe) par ChatGPT.
Breizh-info.com, 2025, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine..