L’AI (ARTIFICIAL INTELLIGENCE) POTRÀ PORTARE ALL’ESTINZIONE UMANA: AD AFFERMARLO I SUOI STESSI CREATORI.

da

in

Mitigare il rischio di estinzione dell’Intelligenza Artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“.

Questa la dichiarazione con la quale si apre la lettera pubblicata sul Center for AI Safety e firmata da più di 350 figure di spicco, tra le quali risultano: Sam Altman (amministratore delegato di OpenAI); Demis Hassabis (capo di Google DeepMind, il dipartimento per lo sviluppo dell’intelligenza artificiale di Alphabet); Audrey Tang (ministra per gli Affari digitali di Taiwan); Angela Kane (ex alto rappresentante della Nazioni Unite per il disarmo); Geoffrey Hinton e Yoshua Bengio (due dei tre ricercatori che hanno vinto un Turing Award per il loro lavoro pionieristico sulle reti neurali, considerati i “padrini” della moderna intelligenza artificiale); gli italiani Roberto Battiston (fisico dell’Università di Trento) e Luca Simoncini (ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche), Dario Amodei (amministratore delegato di Anthropic), nonché esperti informatici, filosofi, giuristi, biologi provenienti dalle maggiori università al mondo.

L’obiettivo di tale dichiarazione non è solo quello di mettere in guardia le istituzioni rispetto ai rischi più gravi collegati all’AI. I firmatari hanno, altresì, proposto alcune soluzioni concrete attraverso le quali garantire che sistemi avanzati di AI vengano gestiti in modo responsabile. A titolo esemplificativo, è stata richiesta una maggiore cooperazione tra i principali esponenti del settore e la formazione di un’organizzazione per la sicurezza, simile all’Agenzia internazionale per l’energia atomica.

Già in passato erano state adottate ulteriori iniziative sul punto.

Basti ricordare: (i) la lettera aperta dello scorso marzo – firmata da più di mille esperti e ricercatori – tra i quali Elon Musk- con la quale veniva chiesto uno stop di sei mesi sullo sviluppo del più grande programma di intelligenza artificiale, lettera questa rimasta inascoltata; (ii) il finanziamento di 100 mila dollari da parte di OpenAI per la creazione di una tavola rotonda in cui far discutere gli esperti delle possibili misure da mettere in campo per evitare che l’AI possa provocare pericoli esistenziali per l’umanità; (iii) ancora il recente incontro tra Altman, Hassabis e Amodei con il presidente degli Stati Uniti Joe Biden e la vicepresidente Kamala Harris, durante il quale Altman aveva avvertito che i rischi dell’AI avanzata erano abbastanza seri da giustificare l’intervento del Governo e richiedevano una puntuale regolamentazione per prevenire potenziali danni.

Sull’argomento si sono creati, però, due opposti schieramenti. Se da una parte vi è chi avalla le preoccupazioni evidenziate nella lettera sopracitata (tra i quali i c.d. “doomer” – ovvero coloro che prevedono un futuro infausto per la razza umana), dall’altra c’è chi sostiene che i timori che l’AI spazzi via l’umanità non siano realistici (tra questi troviamo Arvind Narayanan, un informatico della Princeton University, che ha dichiarato alla BBC che: “L’attuale intelligenza artificiale non è nemmeno lontanamente capace di far materializzare questi rischi. Di conseguenza, ha distolto l’attenzione dai danni a breve termine dell’AI”).

Nonostante i suddetti diversi orientamenti, non può negarsi che siano già evidenti taluni effetti negativi prodotti da un uso improprio dell’AI.

Basti pensare ai rischi di una sorveglianza di massa, alle interferenze sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione.

Alla luce di ciò, diventa fondamentale sensibilizzare le persone comuni e non sui rischi impliciti nell’AI, formarli e informarli sul come dovranno utilizzare tali sistemi nella vita quotidiana e nel lavoro, nonché

sugli usi distorti che altri potrebbero farne a nostro scapito.

f.montanari@macchi-gangemi.com
l.laterza@macchi-gangemi.com