Intelligenza Artificiale, oggi un pericolo sempre più reale: le sue azioni come le nostre e indistinguibili anche ai controlli informatici | Rischiamo che ci schiacci tutti

Intelligenze artificiali – www.iPaddisti.it

Nuove ricerche attestano la presenza di una falla in merito ai contenuti AI: non tutti sono distinguibili da quelli umani tramite controlli informatici, si rischia il caos tra reale e irreale 

Quando Open AI aveva lanciato la sua ChatGPT, l’intelligenza artificiale in Italia era stata bloccata per via di mancanza di informazioni utili a capire quale fossero i rischi che si correvano nell’utilizzo dei propri dati sulla piattaforma. Alcuni scandali iniziali si riferivano a fughe di dati non previste, ma non sembravano essere solo questi i problemi.

Le intelligenze artificiali, così come erano state lanciate dai primi colossi (ChatGPT non è l’unica, anche Bing e altre piattaforme avevano dato già vita alle loro versioni), sembravano troppo ‘intelligenti’ da poter ricreare immagini da foto esistenti sul web, ed esprimere la loro opinione su diverse tematiche.

Nel tempo si è potuto invece assistere a una correzione di tutti quelli che sembravano essere i rischi peggiori per una società non ancora del tutto pronta a governare intelligenze artificiali, soprattutto lasciandole in mano al pubblico; e anche l’Italia ha deciso di accettarne i termini e le condizioni. 

Le informazioni sul web non sono più così sicure, i ricercatori hanno esposto i risultati: i prodotti delle AI non sono sempre distinguibili

Le grandi aziende rassicurano gli utilizzatori delle IA generative con la presenza di sistemi di watermarking che possano identificare un contenuto “non creato dall’uomo”. Si tratta di sistemi informatici che garantiscono la sicurezza sul web identificando produzioni fatte da intelligenze artificiali, distinguendole dal ‘reale’ costruito dall’uomo.

Intelligenze artificiali, i rischi – www.iPaddisti.it

In questo senso ci si dovrebbe sentir protetti dal fatto che gli informatici sappiano sempre e comunque identificare una foto creata dall’AI nonostante sembri perfettamente identica al reale. Purtroppo la situazione non sembra essere quella descritta dai colossi. Ricercatori dell’Università del Maryland hanno infatti evidenziato come i sistemi di watermarking per identificare i contenuti creati con l’IA non offrono sufficienti garanzie di successo.

Durante le ricerche, l’Università è riuscita a superare tutti i sistemi più usati di watermarking per le immagini. Questo pericolo incombe sugli utenti, ma anche sull’intero tessuto sociale che si troverebbe ad affrontare realtà in cui diventerebbe difficile distinguere il vero dal falso e il reale e concreto dal digitale e fatuo. Su questi risultati, la progettazione di nuovi sistemi più potenti è necessaria nel breve termine per permettere più sicurezza sul web, altrimenti le immagini create dalle AI potrebbero diventare la minaccia numero 1 del nostro presente digitale.