Il y a des erreurs qu’on pardonne difficilement. Lorsqu’une intelligence artificielle se trompe dans le cadre d’un procès, la bévue prend une toute autre ampleur. C’est ce qui est arrivé récemment à Claude, le modèle d’IA développé par Anthropic, accusé d’avoir généré une fausse citation juridique dans une procédure judiciaire réelle. Une « hallucination » qui remet en question l’usage de ces technologies dans des environnements où l’exactitude est non négociable.
Une citation inventée … dans un procès bien réel
L’affaire a été révélée cette semaine dans le cadre d’un contentieux entre Anthropic et plusieurs maisons d’édition musicale. Lors de la rédaction d’un document juridique destiné au tribunal, l’un des experts associés à la défense aurait utilisé Claude pour l’aider à formater des références légales. Or, l’une d’elles n’existait pas. Elle faisait allusion à une décision judiciaire fictive, mentionnée comme authentique dans un affidavit soumis à la cour.
La supercherie n’était pas volontaire. L’avocat a rapidement reconnu l’erreur, précisant que Claude avait été utilisé dans un but de mise en page, et non pour générer du contenu. Le mal était pourtant fait : la citation, reprise dans un document officiel, a suscité une vive réaction, poussant Anthropic à s’excuser publiquement et à réaffirmer son engagement en faveur d’une utilisation responsable de l’intelligence artificielle.
Hallucinations d’IA : une faiblesse connue, un risque mal anticipé
Le phénomène n’est pas nouveau. Les modèles de langage comme Claude, ChatGPT ou Gemini sont connus pour leur capacité à générer des contenus plausibles, mais faux. On parle alors « d’hallucinations », une limite technique bien identifiée par les chercheurs, mais encore trop sous-estimée par de nombreux professionnels dans des secteurs réglementés comme la justice.

Ce type d’erreur est d’autant plus problématique qu’il intervient dans un contexte où l’autorité de la parole écrite repose sur des fondements juridiques rigoureux. La frontière entre aide à la rédaction et production autonome devient floue, et l’absence de validation humaine peut transformer un outil d’assistance en source de désinformation. Dans le cas présent, l’erreur aurait pu avoir des conséquences lourdes si elle n’avait pas été repérée à temps.
Une piqûre de rappel pour l’industrie de l’IA
Ce faux pas rappelle que même les modèles les plus avancés n’offrent aucune garantie de véracité. L’usage d’une IA dans des documents officiels doit s’accompagner d’un contrôle humain systématique, d’autant plus lorsque l’enjeu touche à des procès en cours. L’affaire Claude montre aussi que les entreprises elles-mêmes, y compris celles qui développent ces technologies, ne sont pas à l’abri de mauvaises pratiques ou d’erreurs d’appréciation.
Pour Anthropic, cet incident est un avertissement embarrassant, mais salutaire. Il met en lumière la nécessité d’encadrer strictement les usages de l’intelligence artificielle dans le secteur juridique, et plus largement dans tous les domaines où les erreurs peuvent avoir des conséquences concrètes sur des vies humaines ou des décisions de justice.
Vers une régulation plus stricte de l’IA générative ?
À mesure que les IA génératives s’intègrent dans les outils professionnels, la tentation est grande d’automatiser toujours plus de tâches complexes. Mais cet incident illustre à quel point une supervision humaine reste indispensable. Il faudra sans doute aller plus loin : audits systématiques, responsabilité juridique partagée, obligation de traçabilité des sources générées par IA… autant de pistes déjà évoquées par les régulateurs européens et américains.
En attendant, le message est clair : on ne peut pas plaider l’erreur technique pour justifier une faute juridique. Et même les IA les plus prometteuses peuvent, parfois, se prendre les pieds dans le Code.