Un avocat sanctionné pour avoir utilisé des citations fausses générées par l’IA dans une affaire judiciaire : une première en Australie

Publié le 3 septembre 2025 à 09h07
modifié le 3 septembre 2025 à 09h07
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

La justice victime d’une innovation malheureuse a récemment marqué l’histoire juridique australienne. Un avocat a été sanctionné pour avoir utilisé des citations fallacieuses créées par l’intelligence artificielle au cours d’une affaire judiciaire. Ce premier incident illustre les défis éthiques et professionnels posés par l’émergence de l’IA dans le domaine du droit, soulevant des interrogations sur la responsabilité des praticiens. La nécessité de garantir l’intégrité des recherches juridiques devient essentielle dans un contexte technologique en rapide évolution.

Sanction professionnelle d’un avocat en Australie

Un avocat du Victoria a récemment été sanctionné pour l’utilisation d’intelligence artificielle dans le cadre d’une affaire judiciaire. Cette situation, sans précédent en Australie, a conduit à une révision de ses droits d’exercice. Il a perdu son statut d’avocat principal en raison de citations judiciaires erronées générées par un logiciel d’IA, qu’il n’a pas pris la peine de vérifier avant de les soumettre au tribunal.

Les faits de l’affaire

Lors d’une audience le 19 juillet 2024, cet avocat anonyme représentait un mari dans un litige conjugal. À la demande de la juge Amanda Humphreys, il a fourni une liste de précédents juridiques. En retournant à ses bureaux, la juge a annoncé qu’aucun de ses collaborateurs n’était en mesure d’identifier les affaires citées. Lors de la reprise de l’audience, l’avocat a confirmé que cette liste provenait d’un logiciel d’analyse juridique utilisant l’IA.

Reconnaissance de l’erreur

Confronté à ses responsabilités, l’avocat a présenté une excuse inconditionnelle au tribunal. Il a reconnu ne pas avoir compris le fonctionnement de l’outil qu’il avait utilisé, prenant conscience de l’importance de vérifier l’exactitude des recherches assistées par l’IA.

Conséquences de l’utilisation de l’IA

La juge Humphreys a accueilli son excuse, soulignant l’impact stressant de la situation, mais a jugé nécessaire d’orienter l’affaire vers une enquête. La transparence concernant l’utilisation irresponsable de l’IA dans le système judiciaire est d’une importance capitale. Le Victoria Legal Services Board a pris en charge l’examen de la conduite professionnelle de l’avocat, compte tenu de la montée en puissance des outils d’IA dans le domaine juridique.

Variations de la licence d’exercice

Le 19 août suivant, le Victoria Legal Services Board a ajusté les conditions de pratique de cet avocat. Cet ajustement signifie qu’il ne peut plus exercer en tant qu’avocat principal, ne peut pas gérer des fonds de confiance et ne sera plus en mesure de diriger son propre cabinet. A l’avenir, il doit pratiquer sous la supervision d’un autre avocat pendant une période de deux ans, avec des rapports trimestriels à destination du conseil.

Élargissement du problème

Cette affaire n’est pas isolée. Plus de vingt autres cas en Australie ont été signalés, impliquant des avocats et des justiciables qui ont eu recours à l’IA pour préparer des documents judiciaires contenant des citations fictives. Des avocats en Australie-Occidentale et en Nouvelle-Galles du Sud font également l’objet d’examens similaires par leurs organismes de réglementation respectifs.

Considérations éthiques et professionnelles

Les tribunaux et organisations juridiques reconnaissent la place croissante de l’IA dans les processus juridiques. Toutefois, des avertissements persistent quant à l’importance de ne pas négliger le jugement professionnel des avocats. Juliana Warner, présidente du Law Council of Australia, a exprimé que les cas où l’IA a généré de fausses citations sont considérés comme une préoccupation sérieuse.

Elle a souligné que l’utilisation de ces outils doit être exercée avec le maximum de soin. Les obligations éthiques vis-à-vis des clients et du tribunal demeurent primordiales. La proposition d’un interdit général sur l’utilisation de l’IA dans les procédures judiciaires apparaît cependant comme ni pratique ni proportionnelle, risquant de freiner l’innovation et l’accès à la justice.

Pour des références sur des sanctions similaires, vous pouvez consulter les cas d’un avocat américain dans un contexte similaire, où l’usage de ChatGPT a entraîné des conséquences similaires, ici : un cas similaire aux États-Unis.

Les problèmes liés aux hallucinations générées par l’IA ne sont pas confinés à un seul pays. Les outils modernes comme ChatGPT soulèvent des questions concernant leur utilisation éthique dans les politiques et les pratiques, comme démontré dans un autre article : analyses des données fictives.

FAQ sur l’avocat sanctionné pour utilisation de citations fausses générées par l’IA

Quels sont les détails de l’affaire impliquant l’avocat qui a utilisé des citations fausses générées par l’IA ?
L’affaire concerne un avocat victorien qui a été sanctionné après avoir présenté des citations juridiques incorrectes générées par un logiciel d’intelligence artificielle. L’avocat n’a pas vérifié l’exactitude des citations avant de les soumettre au tribunal, ce qui a conduit à des sanctions professionnelles.

Quelles sanctions l’avocat a-t-il reçues suite à cette affaire ?
Suite à l’enquête menée par le Victorian Legal Services Board, l’avocat a perdu son statut de praticien principal, ne peut plus gérer d’argent en fiducie, ni exercer sa propre pratique. Il doit désormais pratiquer sous supervision pendant une période de deux ans.

Pourquoi est-il important d’examiner la conduite professionnelle des avocats utilisant l’IA ?
Il est essentiel d’examiner la conduite professionnelle afin de garantir que l’utilisation croissante de l’IA dans le domaine juridique se fait de manière responsable, en respectant les obligations éthiques et professionnelles des avocats envers leurs clients et le tribunal.

Quelles leçons les avocats peuvent-ils tirer de cette affaire ?
Les avocats doivent impérativement vérifier toute information fournie par des outils d’intelligence artificielle pour s’assurer de son exactitude avant de la soumettre dans un contexte légal, en gardant à l’esprit leur responsabilité professionnelle.

Qu’a révélé le cas concernant l’utilisation de l’IA dans la préparation des documents judiciaires ?
Le cas a mis en lumière que malgré les avantages potentiels de l’IA dans la pratique juridique, des cas récents montrent que plusieurs avocats ont été sanctionnés pour avoir utilisé des informations générées par l’IA sans vérification, affichant ainsi un besoin urgent d’un cadre réglementaire concernant son utilisation.

Comment les cours réagissent-elles aux cas d’utilisation d’IA générant de fausses citations ?
Les cours considèrent ces violations comme des préoccupations sérieuses, car cela remet en question l’intégrité des procédures judiciaires. Des mesures appropriées sont prises pour s’assurer que de telles erreurs ne se reproduisent pas.

Quelle est la réponse du Law Council of Australia concernant l’utilisation de l’IA par les avocats ?
Le Law Council Australia souligne que les avocats doivent utiliser les outils d’IA avec précaution, en restant conscients de leurs obligations éthiques. Une interdiction générale de l’IA ne serait pas pratique et pourrait nuire à l’innovation, mais une vigilance est nécessaire.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsUn avocat sanctionné pour avoir utilisé des citations fausses générées par l'IA...

L’IA riposte aux critiques de Greg Ip du Wall Street Journal sur les dangers de l’intelligence artificielle

découvrez comment l'intelligence artificielle répond aux inquiétudes formulées par greg ip du wall street journal concernant les dangers potentiels de l'ia. analyse, arguments et perspectives d'experts sur ce débat crucial.
découvrez pourquoi une startup d'ia, appuyée par amazon, s'intéresse à l'écriture de fan fiction inspirée par orson welles. analyse des motivations, des enjeux et des perspectives au croisement de la technologie et de la culture.

Exploration du Gemini Nano Banana : Guide d’utilisation de l’outil de retouche photo de Google

découvrez comment utiliser gemini nano banana, l'outil de retouche photo de google. ce guide détaillé vous accompagne pas à pas pour optimiser vos photos avec facilité et efficacité.
découvrez pourquoi l'intelligence artificielle rencontre encore des difficultés à accompagner efficacement les équipes de réseaux sociaux et les principaux défis à surmonter pour améliorer leur performance.
découvrez comment les géants de la technologie tels que google et palantir s’impliquent de plus en plus dans le secteur militaire, marquant un tournant stratégique de la silicon valley vers les applications de défense et de sécurité.

Melania Trump a raison de dire que les robots sont parmi nous, mais ses solutions laissent à désirer |...

découvrez pourquoi melania trump soulève un point pertinent sur la présence croissante des robots dans notre société, mais pourquoi ses solutions proposées sont remises en question par arwa mahdawi. analyse et critique dans cet article.