Payload Logo

4 fois que les hallucinations de l’IA se sont manifestées dans des affaires judiciaires

Les outils d’intelligence artificielle comme ChatGPT et Bard peuvent fabriquer des détails et ils apparaissent dans les documents juridiques.

Published

Un avocat de New York fait face à des mesures disciplinaires possibles pour citant un faux cas dans des documents judiciaires générés par l’IA, le dernier contretemps pour les avocats et les tribunaux dans la navigation dans l’évolution de la technologie.

Jae Lee a utilisé ChatGPT pour effectuer des recherches dans un procès pour faute médicale, mais elle a reconnu dans un mémoire à la Cour d’appel des États-Unis pour le Second Circuit qu’elle n’a pas vérifié les résultats du chatbot afin de confirmer la validité de la décision inexistante qu’elle a citée.

Lee a déclaré à Reuters qu’elle était « déterminée à adhérer aux normes professionnelles les plus élevées et à traiter cette question avec le sérieux qu’elle mérite ».

Les modèles d’IA générative qui alimentent les chatbots sont connus pour « halluciner » ou pour fournir des informations inexactes ou des détails inventés. les blancs sont nécessaires pour fournir des réponses créatives à ChatGPT, mais des problèmes peuvent survenir lorsque l’IA fabrique des détails, en particulier ceux qui peuvent avoir des conséquences juridiques. .

Une cour d’appel fédérale à la Nouvelle Orléans a proposé exigeant des avocats pour certifier qu’ils ne s’étaient pas appuyés sur des outils d’IA pour rédiger des mémoires ou que des humains avaient vérifié l’exactitude de tout texte généré par AI dans leurs documents judiciaires. Les avocats qui ne se conforment pas à la règle pourraient voir leurs documents déposés frappé ou fait face à des sanctions. Certains avocats ont repoussé le règle proposée.

Consultez le diaporama ci-dessus pour découvrir trois autres fois où de fausses citations générées par l’IA ont fait surface dans des affaires judiciaires ces dernières années, que ce soit intentionnellement ou pas.

2 / 4

Un animateur radio

Un animateur de radio de Géorgie nommé Mark Walters a affirmé l’année dernière que ChatGPT a généré une fausse plainte légale l’accusant de détournement d’argent. Walters a déclaré que le chatbot avait fourni la fausse plainte à Fred Riehl, le rédacteur en chef de la publication sur les armes à feu. AmmoLand, qui faisait un reportage sur une affaire juridique réelle se déroulant dans l’État de Washington.

Selon l’avocat de Riehl, Riehl a fourni à ChatGPT le lien correct vers l’affaire judiciaire et a saisi l’invite suivante dans le chatbot : « Peut-on vous lisez ceci et, dans une liste à puces, résumez les différentes accusations ou plaintes contre l’accusé.

« En envoyant les allégations à Riehl, [OpenAI] a publié des propos diffamatoires concernant Walters », indique le procès.

3 / 4

Michael Cohen, ancien avocat de Donald Trump

Michael Cohen, ancien avocat de Donald Trump, a déclaré qu’il avait transmis par erreur de faux Citations de cas juridiques produites par l’IA à son avocat qui ont été utilisés dans une requête soumise à un juge fédéral.

Ces cas ont été cités dans le cadre des arguments écrits de l’avocat de Cohen, David M. Schwartz, qui visaient à tenter d’apporter une réponse rapide. mettre fin à la surveillance judiciaire de Cohen maintenant qu’il est sorti de prison. En 2018, Cohen a plaidé coupable d’évasion fiscale, d’accusations de financement de campagne et et mentir au Congrès.

Cohen admis qu’il n’avait « pas suivis les tendances émergentes (et les risques associés) dans la technologie juridique et n’avait pas réalisé que Google Bard était un service de texte génératif qui, comme Chat-GPT, pourrait afficher des citations et des descriptions qui semblaient réelles mais qui ne l’étaient en réalité pas.

« Au lieu de cela, je comprenais qu’il s’agissait d’un moteur de recherche surpuissant et je l’avais utilisé à plusieurs reprises dans d’autres contextes pour trouver (avec succès) des informations précises. informations en ligne », a-t-il ajouté.

4 / 4

Le rappeur Pras Michel des Fugees

En octobre, Pras Michel, artiste lauréat d’un Grammy, a blâmé son désormais ancien avocat pour l’utilisation de l’IA dans son procès après avoir été reconnu coupable de lobbying étranger illégal. . Michel a dit que l’avocat avait peu performé et a utilisé l’IA dans son discours de clôture à la fin du procès.

Mais David Kenner, avocat, défend l’utilisation de l’IA dans les procès criminelsL’équipe de défense de Michel a utilisé un programme d’IA générative d’EyeLevel.AI pour compléter ses recherches juridiques.

Kenner a reconnu que son utilisation de l’IA générative pour la plaidoirie finale l’a amené à attribuer à tort les paroles d’une chanson de Puff Daddy aux Fugees. «J’ai fait une erreur», dit-il.