 
In Australia, l’avvocato Rishi Nathwani, stimato membro del foro e titolare del titolo di King’s Counsel, ha dovuto scusarsi pubblicamente per un grave errore commesso in un processo per omicidio davanti alla Corte Suprema di Melbourne.
Nei documenti difensivi da lui presentati erano presenti citazioni e precedenti legali inventati, generati con l’aiuto di un’intelligenza artificiale.
Durante l’udienza, Nathwani ha dichiarato di assumersi la piena responsabilità per l’accaduto. Ha definito la situazione “profondamente imbarazzante”.
Il legale difendeva un adolescente accusato di omicidio, poi assolto per incapacità mentale.
Citazioni false e casi inventati
Le “allucinazioni” dell’IA avevano prodotto riferimenti a un discorso parlamentare mai avvenuto. Poi ancora, casi giudiziari che non risultavano nei registri della Corte Suprema.
Il problema è emerso quando lo staff del giudice James Elliott ha tentato di verificare le citazioni e non ha trovato alcuna traccia delle sentenze indicate.
Dopo la richiesta di fornire le copie dei documenti originali, la difesa ha ammesso che le citazioni non esistevano e che i riferimenti erano frutto di informazioni generate artificialmente.
Il monito del giudice: “L’accuratezza è fondamentale”
Nel commentare l’incidente, il giudice Elliott ha ricordato che la fiducia della Corte nei documenti legali dipende dalla loro accuratezza:
“La possibilità per il tribunale di fare affidamento sulle informazioni fornite dagli avvocati è essenziale per la corretta amministrazione della giustizia”.
Il giudice ha inoltre richiamato le linee guida sull’uso dell’intelligenza artificiale emanate dalla Corte Suprema del Victoria nel 2024, sottolineando che:
“Non è accettabile utilizzare strumenti di IA senza un controllo indipendente e approfondito dei risultati”.
Un fenomeno globale: altri casi in USA e Regno Unito
L’episodio australiano si aggiunge a una serie di casi analoghi in tutto il mondo.
Nel 2023, negli Stati Uniti, due avvocati e uno studio legale furono multati con 5.000 dollari. I rappresentanti legali avevano presentato ricerche legali contenenti sentenze fittizie generate da ChatGPT.
Anche l’ex avvocato di Donald Trump, Michael Cohen, fu coinvolto in un caso simile. Aveva depositato documenti con citazioni inventate dall’IA usata per le sue ricerche.
Nel Regno Unito, la giudice Victoria Sharp dell’Alta Corte ha avvertito che presentare materiale falso come autentico potrebbe configurare oltraggio alla corte o addirittura sabotaggio della giustizia, con pene severe.
L’IA nei tribunali: tra opportunità e rischi
L’incidente australiano evidenzia i rischi crescenti legati all’uso dell’intelligenza artificiale nel settore legale.
Pur offrendo strumenti potenti per la ricerca e la redazione di documenti, l’IA può generare “allucinazioni” – ovvero informazioni false ma plausibili – se non viene sottoposta a controlli umani accurati.
Come sottolineano i giudici di vari Paesi, la sfida ora è stabilire regole chiare per bilanciare l’efficienza offerta dall’IA con la responsabilità professionale e la tutela dell’integrità del sistema giudiziario.

 
		 
		