Usa: multe e sospensioni per gli avvocati che utilizzano l’AI

 

È ormai chiaro che l’intelligenza artificialecambierà il mondo del lavoro;resta da capire, ora, se in meglio o in peggio, in particolare nel mondo dellagiurisprudenzadove, diversamente da quanto previsto, la professione legale non è ancora stata completamente sostituita dall’AI. Tuttavia, ilrapporto diGoldman Sachsdi aprile ha stimato che il44% dei posti di lavoro legali potrebbe essere sostituito da intelligenza artificiale. Nel mentrenegli Usa qualcuno ha provato a usareChatGPT(ma con pessimi risultati) come riportato dalWashington Post.Il caso riguardaZachariah Crabill,giovane avvocato: quando i suoi capi gli hanno chiesto un ulteriore impegno sul lavoro, non ha visto altra via di salvezza che in ChatGPT. Crabill ha dichiarato: «Ero eccitato per il mal di testa che mi ha evitato». Peccato però che tutto sia durato molto poco. Infatti la Corte, analizzando la mozione della causa civile presentata a maggio, non ci ha messo molto a scoprire che qualcosa non andava. Dopo aver infatti ammesso l’uso della tecnologia, a luglio un giudice ha ordinato a Zachariah Crabill unasospensione dalla professionedi un anno per“aver citato la giurisprudenza trovata attraverso la piattaforma di intelligenza artificiale ChatGPT”, che ha prodotto casi errati e fittizi. Sembra infatti chel’avvocato non abbia verificato, per mancanza di tempo dovuta alla pressione dei capi, i casi citati nel testo prodotto dall’AI ma questo, dichiara Crabill, ha evidenziato le sfide dell’integrazione di strumenti di intelligenza artificiale in una professione come quella forense. I legali, soprattutto negli Usa, utilizzano già strumenti linguistici dell’AIper setacciare migliaia di documenti. Il problema risiede nelcome l’intelligenza artificiale venga utilizzata.Infatti bisogna sottolineare che alcuni dispositivi AI sono “inclini” a fabbricare fatti, portando al licenziamento, come accaduto a Crabill, o a multe nei confronti di alcuni avvocati. Per questo l’American Bar Associationhaorganizzatoun gruppo di lavoro percomprendere gli impatti dell’AI sulla pratica legale. Nel mentre,i casi di uso non corretto e controllato dell’AI nel mondo della giurisprudenza sono sempre più numerosi: in primavera Lydia Nicholson, avvocatə immobiliare di Los Angeles (che ha scelto di utilizzare i pronomi they/them), ha ricevuto un documento relativo al caso di sfratto di un cliente. Analizzando bene i riferimenti, Nicholson si è resə conto che molti di questi erano falsi. Altri colleghi hanno così condotto un’analisi sul documento e si giunti alla conclusione che quei file potevano essere «qualcosa che l’AI avrebbe potuto realizzare». Nicholson ha presentato una mozione contro lo Studio legale che ha usato l’intelligenza artificiale e un giudice, dopo un’indagine indipendente, ha emesso il verdetto: unamulta di 999 dollari. Suresh Venkatasubramanian,informatico e direttore delCenter for Technology Responsability, Reimagination, and Redesign, sostiene che «ciò che è sorprendente è che l’AI non produce mai qualcosa di accurato (…) non è quello per cui è stata pensata»; ma piuttosto per fare conversazione, essendo stata addestrata su grandi quantità di testi pubblicati. In questo modoquando viene chiesto all’AI di creare documenti legali il risultato è un testo privo di fondamentipoiché i riferimenti possono essere mischiati tra loro inventando commi e leggi inesistenti. Per questoi giudici americani stanno affrontando il problemadi sistemi come ChatGPT: alcuni stanno vietando l’uso dell’AI in aula di tribunale, altri stanno chiedendo agli avvocati di firmare documenti cheattestino l’uso o meno dell’AInel loro lavoro, altri stanno valutando una proposta per far richiedere ai legali il permesso dei clienti a utilizzare l’intelligenza artificiale. La strada della legge sull’uso dell’AI, anche in campo legale, è tutta da scrivere, ma forse proprio Crabill ha ragione quando dichiara che «non ha senso essere contro qualcosa che invariabilmente diventerà la via del futuro».