“Rischiamo l’estinzione con IA, è come le pandemie” nuovo grido di allarme: stavolta le ipotesi non sono solo allarmiste | Il peggior scenario entro breve

Apocalisse IA
Secondo 350 esperti, l’IA potrebbe distruggere l’umanità – ipaddisti.it

Una lettera firmata dalle menti più illuminate che hanno guidato il progresso dell’IA avvisa: l’umanità rischia l’estinzione. Il contenuto prova a richiamare l’attenzione dell’intera società e, a maggior ragione, delle istituzioni, con lo scopo di creare un quadro normativo che protegga il genere umano dagli sviluppi tecnologici legati alle intelligenze artificiali. Tra i firmatari anche il CEO di OpenAI e quello di Google DeepMind.

Oramai siamo abituati a sentir parlare di intelligenza artificiale praticamente con cadenza giornaliera. Ogni giorno, infatti, c’è qualcuno che scopre un nuovo ambito di applicazione; d’altro canto gli esperti e i ricercatori non smettono di spendere opinioni e punti di vista sull’avanzamento e lo sviluppo dirompente di questa tecnologia. Eppure, i dubbi persistono e sono molto forti.

Già le grandi società si comportano in maniera decisamente ambivalente: se, da una parte, Apple annuncia l’arrivo dell’applicazione di ChatGPT per i sistemi iOS, dall’altra ne vieta l’utilizzo a qualsiasi dipendente dell’azienda; gli istituti universitari americani si dichiarano in un primo momento contrari alla diffusione dell’IA, salvo poi rimangiarsi tutto e chiedere scusa, aprendo alle possibilità di applicazione anche in campo accademico; Sam Altman, CEO di OpenAI, vende un prodotto basato sull’intelligenza artificiale, ma sale a Capitol Hill per chiedere norme alle quali sottostare. Insomma, il caos è totale.

La lettera degli esperti: i rischi sono troppo elevati per la società

È in questo clima confuso che le parole degli esperti si dividono in due tronconi separati. I primi affermano che lo sviluppo dell’IA sarà marginale, e che non ci si debba preoccupare più di tanto, almeno in relazione ad altri problemi mondiali come il cambiamento climatico. I secondi, invece, si sono fatti sentire attraverso una lettera aperta che è stata diffusa dal Center for AI Safety, un’organizzazione no profit. Il fatto è che tra i firmatari di questo testo ci sono alcuni dei maggiori esponenti in ambito informatico e tecnologico.

IA
La priorità deve essere quella di contenere il potenziale delle intelligenze artificiali – ipaddisti.it

Tra questi si ritrovano lo stesso Sam Altman, ma anche Geoffrey Hinton, il “padrino” dell’IA, e Demis Hassabis, CEO di Google DeepMind. Con questa lettera, le 350 firme vogliono portare in primo piano il tema del rischio del futuro dell’umanità legato agli sviluppi delle intelligenze artificiali. Nel contenuto l’IA viene paragonata a una pandemia o alla guerra nucleare: servono istituzioni e norme in grado di contenere il rischio che l’umanità si estingua. Insomma, data l’autorevolezza delle voci, speriamo che il richiamo non rimanga inascoltato.