Un cabinet d’avocats new-yorkais a rendu au juge un mémoire truffé d’erreur: une partie de la jurisprudence citée est fantaisiste. The author recognizes s’être servi de ChatGPT, unaware que le robot conversationnel n’est pas infaillible.
by Paul Sugy
Released out of date
À l’origine, ce n’était qu’un banal procès opposant un particulier à une compagnie aérienne, accusée d’être responsable de injuries qu’il dit avoir subies. Mais comme le reveille le New York Times les avocats de la compagnie aérienne ont été interloqués par le mémoire transmitted by les avocats du plaintiff : Parmi les arrêts Cités en guise de jurisprudence, pour appuyer Leur request, ces derniers ont invoqué multipleieres affairéontéutment simple n’ existent.
Le juge new-yorkais chargé du dossier, P. Kevin Castel, en alors écrit aux avocats du plaintiff pour Leur demander des explications: «six des arrêts invoqués renvoient à de fausses décisions de justice et mentionnent de fausses citations», fait-il observer.
This content is not available.
Mis en cause, le cabinet d’avocats Levidow & Oberman a répons au Tribunal que ce n’est pas l’avocat du plaintiff, Peter LoDuca, mais l’un de ses collaborators, Steven A. Schwartz, qui a redégé le mémoire transmis à la cour. Malgré plus de Trente ans d’expérience comme jurist et une solide connaissance du droit, Schwartz recognized s’être servi pour faire ses researches de ChatGPT, l’algoritme qui uses l’intelligence artificielle pour dialoguer avec les internautes and produire request des .
» LIRE AUSSI – Aurélie Jean: «Les scénaristes de Hollywood on-ils raison de crindre ChatGPT ?»
ChatGPT afait portant Cité se sources
Schwartz, qui a éclair d”big regrets» aupres du Tribunal lorsqu’il a compris son erreur, a explição n’avoir jamais utilisete ChatGPT aupuravan, et ignorait qu’une partie des réponses foursés par l’algorithme étaiten inventées, et donc fausses. ChatGPT has previously accepted users if they want a high price «fournir des informations erronées».
L’avocat sent to the Tribunal des captures d’écran de ses échanges avec ChatGPT, which shows that the robot conversation lui avait confirmé que l’un des arrêts fantaisistes avait bien existé. Lorsque l’avocat lui a demandé quelles étaiten ses sources, l’intelligence artificielle a Cité LexisNexis et Westlaw – Deux bases de données référençant des décisions de justice. Pourtant, lorsque l’on rentre «Varghese v China Southern Airlines Co Ltd» (le nom d’un des arrêts Cités dans le mémoire) dans le motore recherche de LexisNexis, on ne trouve aucun résultat.
Les Deux lawyers, Steven A. Scwartz and Peter LoDuca, were met by an audience on June 8, and a vue d’une evventuelle procedure disciplinaryaire against eux. Scwartz a promis au Tribunal qu’il ne ferait plus de recherches sur ChatGPT sans verifier ensuite par lui-même la réalité des arrêts proposés par l’intelligence artificielle.