En Australie, un incident embarrassant a secoué la Cour suprême de l’État de Victoria : un avocat expérimenté, détenteur du prestigieux titre de King’s Counsel, a admis avoir transmis à la justice des conclusions contenant de fausses citations et des références jurisprudentielles inexistantes… toutes générées par une intelligence artificielle.
Une erreur qui retarde un procès pour meurtre
L’avocat Rishi Nathwani représentait un adolescent jugé pour meurtre. Selon les documents consultés par l’Associated Press, il a assumé « l’entière responsabilité » de ces erreurs, présentant ses excuses au juge James Elliott au nom de son équipe de défense.
Les citations fictives comprenaient notamment des extraits inventés d’un discours devant le Parlement de l’État et des références à des arrêts prétendument rendus par la Cour suprême… mais introuvables. C’est l’équipe du juge Elliott qui a découvert l’irrégularité en cherchant à vérifier ces références.
Résultat : l’affaire, que le magistrat espérait conclure le mercredi, a été retardée de 24 heures. Le lendemain, le juge a finalement rendu son verdict, déclarant l’accusé non coupable pour cause de trouble mental.
Le rappel à l’ordre du magistrat
« La capacité de la cour à se fier à l’exactitude des conclusions présentées par les avocats est fondamentale pour le bon fonctionnement de la justice », a rappelé le juge Elliott, qualifiant la situation d’« insatisfaisante ».
Il a souligné que des lignes directrices sur l’usage de l’IA par les avocats avaient déjà été publiées l’an passé : « Il n’est pas acceptable d’utiliser une intelligence artificielle sans vérifier de manière indépendante et approfondie le résultat obtenu. »
Ce n’est pas la première fois qu’une telle mésaventure survient. En 2023, aux États-Unis, deux avocats et leur cabinet avaient été sanctionnés d’une amende de 5 000 dollars pour avoir présenté à un juge des recherches juridiques inventées par ChatGPT dans le cadre d’un dossier d’accident aérien. Le magistrat américain, tout en dénonçant leur « mauvaise foi », avait pris en compte leurs excuses et les mesures correctives mises en place pour éviter de futures dérives.
Plus tard la même année, des avocats représentant Michael Cohen, ex-conseiller de Donald Trump, avaient eux aussi intégré dans leurs conclusions des décisions judiciaires fictives produites par un outil de recherche en ligne utilisant l’IA. Cohen avait reconnu ne pas savoir que l’outil pouvait générer ce type « d’hallucinations » juridiques.
Au Royaume-Uni, la juge Victoria Sharp a récemment averti que fournir à un tribunal des éléments falsifiés comme s’ils étaient authentiques pouvait relever du mépris de cour ou, dans les cas les plus graves, de l’entrave à la justice — un délit passible, outre-Manche, de la prison à vie.
Crédit photo : DR (photo d’illustration)
[cc] Breizh-info.com, 2025, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine