banner

Notizia

Dec 29, 2023

L’intelligenza artificiale potrebbe causare l’estinzione umana, dichiarano senza mezzi termini gli esperti

Negli ultimi mesi, molti esperti e dirigenti di IA hanno lanciato l’allarme sui pericoli dello sviluppo avanzato dell’IA.

L’ultima salva è una nuova dichiarazione di 22 parole che equipara il rischio globale dell’intelligenza artificiale a quello delle pandemie e della guerra nucleare.

Non tutti gli esperti sono preoccupati, alcuni sostengono che l’intelligenza artificiale non sia neanche lontanamente abbastanza avanzata da spegnere l’esistenza umana.

Molte persone sono preoccupate per il futuro dell’intelligenza artificiale, comprese le menti coinvolte nella creazione di quel futuro. Dirigenti tecnologici e amministratori delegati di società di intelligenza artificiale, comprese aziende come OpenAI e Deepmind, hanno firmato una dichiarazione di 22 parole semplice ma inquietante sui potenziali pericoli dell'intelligenza artificiale: "Mitigare il rischio di estinzione dell'intelligenza artificiale dovrebbe essere una priorità globale insieme ad altre rischi su scala sociale come pandemie e guerre nucleari”.

La dichiarazione è volutamente vaga ed evita i dettagli su come mitigare questo rischio crescente dovrebbe essere una priorità, ma mostra un alto livello di preoccupazione per l’intelligenza artificiale tra le stesse persone dietro la fiorente tecnologia. La dichiarazione, pubblicata al Center for AI Safety, è un "coming out" per gli esperti di intelligenza artificiale preoccupati per il futuro della tecnologia, secondo il direttore esecutivo del centro Dan Hendrycks.

"C'è un malinteso molto comune, anche nella comunità dell'intelligenza artificiale, secondo cui ci sono solo una manciata di catastrofi [sic]", ha detto Hendrycks al New York Times. "Ma, in realtà, molte persone in privato esprimono preoccupazione per queste cose."

Le minacce dell'intelligenza artificiale non sono necessariamente legate al fatto che una forma di vita artificiale super avanzata schiavizzerà e sterminerà l'umanità come in Terminator. Il sito web del Center for AI Safety descrive in dettaglio una visione più sottile del nostro destino, compreso il potenziale ruolo dell’intelligenza artificiale nella progettazione di armi chimiche più efficaci, nel potenziamento delle campagne di disinformazione e nell’esacerbazione della disuguaglianza sociale.

Queste preoccupazioni non sono una novità. I timori sull’intelligenza artificiale sono antichi quasi quanto la nascita della tecnologia e hanno svolto un ruolo importante nella fantascienza per quasi un secolo. Isaac Asimov creò le Tre Leggi della Robotica nel 1942 e nel romanzo di fantascienza Dune del 1965, l'intelligenza artificiale è completamente bandita in tutta la galassia conosciuta nel tentativo di salvare l'umanità.

A marzo, i leader tecnologici, tra cui Elon Musk (portavoce di lunga data dei pericoli dell’intelligenza artificiale) e altri importanti ricercatori sull’intelligenza artificiale, hanno chiesto una moratoria di sei mesi sulla ricerca sull’intelligenza artificiale “più potente di GPT-4”, l’ultima versione del grande modello multimodale di OpenAI. . Ad aprile, l’Associazione per il progresso dell’intelligenza artificiale ha pubblicato una propria lettera in cui sollecitava lo sviluppo di modalità per “garantire che la società sia in grado di raccogliere la grande promessa dell’intelligenza artificiale gestendo al contempo i suoi rischi”. E proprio all’inizio di questo mese, l’esperto di intelligenza artificiale Geoffrey Hinton, noto come il “padre dell’intelligenza artificiale”, ha espresso similmente timori riguardo alla tecnologia in crescita, arrivando al punto di dire che si è pentito del lavoro della sua vita.

Non tutti gli esperti di intelligenza artificiale si uniscono alle strette di mano. Uno scienziato informatico dell’Università di Princeton ha dichiarato alla BBC che “l’attuale intelligenza artificiale non è affatto abbastanza capace da far sì che questi rischi si materializzino. Di conseguenza, distoglie l’attenzione dai danni a breve termine dell’intelligenza artificiale”, come il suo comportamento parziale ed esclusivo. Indipendentemente da ciò, sia Microsoft che OpenAI hanno chiesto al governo degli Stati Uniti di regolamentare lo sviluppo dell’intelligenza artificiale e la sottocommissione giudiziaria del Senato ha tenuto un panel sulla supervisione dell’intelligenza artificiale a metà maggio.

Il futuro negativo dell’intelligenza artificiale non è ancora stato scritto e alcuni dirigenti ed esperti del settore tecnologico stanno cercando di mantenerlo tale.

Potrebbe piacerti anche

Le cose da fare e da non fare quando si usa il nastro adesivo

I migliori barbecue portatili per cucinare ovunque

Uno smartwatch può prolungare la vita?

Potrebbe piacerti anche
CONDIVIDERE