Notizie

Ha rischiato di andare in carcere: Chat GPT costruisce la sua arringa difensiva inventa tutto e contraddice i fatti | Com’è stato possibile?

Il caso giudiziario americano dimostra l’inaffidabilità dell’IA, almeno per ora – ipaddisti.it

Un singolare caso di utilizzo dell’intelligenza artificiale in ambito giudiziario arriva dagli USA: ChatGPT si inventa tutti i precedenti. Il caso riguarda la citazione in giudizio da parte di un uomo nei confronti della compagnia aerea Avianca. Davanti al giudice, l’avvocato dell’accusa ha iniziato a citare una serie di precedenti che si dichiaravano a suo favore: ma nessuno di questi era mai avvenuto.

Quello dell’intelligenza artificiale è un tema che negli ultimi mesi sta rimbalzando dappertutto. Il motivo è semplice: le sue potenzialità sono talmente sconfinate che ancora non siamo in grado di accordargli tutti i rischi e tutti i vantaggi che la sua applicazione estensiva potrebbe portare all’umanità. Nonostante questo, in giro per il mondo non mancano i casi di aziende e professionisti che fanno affidamento sugli strumenti ad oggi noti.

Quello più diffuso è ChatGPT. L’intelligenza artificiale conversazionale creata e sviluppata da OpenAI è stata la prima con la quale il grande pubblico ha potuto interfacciarsi. Dalla sua “scoperta”, gli utenti hanno iniziato a testare alcune sue potenzialità, chiedendo consigli ed effettuando richieste anche molto particolari. Il caso di cui parliamo oggi, in effetti, dimostra quanto in realtà si presenti poco affidabile per ora l’intelligenza artificiale in determinati ambiti.

ChatGPT inventa tutto: imbarazzo alla corte di giustizia

L’IA potrebbe potenzialmente svolgere tantissimi lavori senza interferenze umane. Ad oggi, però, questa ipotesi non vale per tutti gli ambiti. Negli Stati Uniti, un uomo ha deciso di fare causa alla compagnia aerea Avianca dopo essere stato colpito a una gamba da un carrello metallico. Davanti al giudice, l’avvocato dell’accusa ha portato alcuni precedenti che difendevano le posizioni del suo assistito. Un esame più approfondito, però, ha subito dimostrato la falsità dei precedenti portati dal legale. Com’è potuto accadere? Semplicemente, l’avvocato si era affidato a ChatGPT per richiedere informazioni sui casi simili passati.

OpenAI ha sviluppato un algoritmo open source: chiunque può svlupparlo – ipaddisti.it

I casi citati dall’IA erano tutti inventati di sana pianta. A dire il vero, come riportano le testate d’oltreoceano, l’avvocato si era premurato di chiedere a ChatGPT se le fonti fossero autentiche o meno. In tutta risposta, l’IA aveva confermato la veridicità dei casi citati, reclamando di averli trovati in un database legale di assoluta affidabilità. Ora l’avvocato dovrà rispondere di queste false citazioni, e da qui si creerà una nuova interessante giurisprudenza per lo stato americano. L’IA, almeno per ora, non è in grado di difendersi in tribunale.

Published by
Domenico Rossi