Un avvocato di New York si è trovato nei guai con un giudice dopo aver presentato una ricerca legale creata dal chatbot di intelligenza artificiale ChatGPT. Durante un caso di citazione in giudizio di una compagnia aerea per un presunto danno alla persona, gli avvocati del querelante hanno presentato una memoria contenente diversi casi da utilizzare come precedenti legali. Purtroppo, come ammesso successivamente in una dichiarazione giurata, i seguenti casi sono stati “ritenuti inesistenti” dal tribunale:
La “ricerca” è stata compilata dall’avvocato Steven A. Schwartz, un legale con oltre 30 anni di esperienza. Schwartz ha sostenuto nella dichiarazione giurata di non aver mai utilizzato ChatGPT per ricerche legali e di “non essere a conoscenza della possibilità che il suo contenuto potesse essere falso”. Le schermate contenute nella dichiarazione giurata mostrano l’avvocato che chiede al chatbot “Varghese è un caso reale?”. Il chatbot risponde “sì”. Quando gli sono state chieste le fonti, ha detto all’avvocato che il caso poteva essere trovato “su database di ricerca legale come Westlaw e LexisNexis”. Alla domanda “gli altri casi che hai fornito sono falsi”, il chatbot ha risposto “No”, aggiungendo che potevano essere trovati sugli stessi database.
Leggi anche: Usa l’intelligenza artificiale per superare un colloquio di lavoro
Per quanto utili possano essere i chatbot o per quanto avanzati possano sembrare, sono ancora inclini alle “allucinazioni”, ovvero al fornire risposte perfettamente coerenti che non hanno alcun rapporto con il mondo reale. Senza un’attenta verifica dei fatti, dunque, non è uno strumento ideale da usare quando si cerca di fare una ricerca su un caso legale che si basa su precedenti reali piuttosto che sulle allucinazioni di un piccante completamento automatico. L’avvocato ha scritto che “si rammarica molto di aver utilizzato l’intelligenza artificiale generativa per integrare la ricerca legale qui effettuata” e ha giurato di “non farlo mai più in futuro senza una verifica assoluta della sua autenticità”. Sia Schwartz che l’avvocato Peter LoDuca, che non era a conoscenza dell’uso di ChatGPT durante le ricerche sul caso, dovranno affrontare l’8 giugno un’udienza sull’incidente.
Share