I leader tecnologici e gli esperti chiedono una pausa di 6 mesi dalla sperimentazione dell’IA
I leader tecnologici e gli esperti chiedono una pausa di 6 mesi dalla sperimentazione dell’IA. Sono preoccupati per gli eventi (troppo) turbolenti in quest’area e per la mancanza di sicurezza intorno.
La lettera aperta, firmata dai leader tecnologici e da altri ricercatori IA di alto profilo, invita i laboratori e le aziende IA a ” sospendere immediatamente ” il loro lavoro. I firmatari, tra cui Steve Wozniak ed Elon Musk, vorrebbero prendersi una pausa di almeno sei mesi dalla produzione di tecnologie basate su GPT-4 per sfruttare i sistemi di intelligenza artificiale esistenti e consentire alle persone di adattarsi e assicurarsi di poter beneficiare tutti. La lettera aggiunge che il pensiero e la lungimiranza sono essenziali per proteggere i sistemi di intelligenza artificiale.
I leader tecnologici e gli esperti chiedono una pausa di 6 mesi dalla sperimentazione dell’IA
Il riferimento a GPT-4, un modello OpenAI in grado di rispondere con testo a messaggi scritti o visivi, arriva mentre le aziende stanno già cercando di sviluppare sofisticati sistemi di chat utilizzando questa tecnologia. Microsoft, ad esempio, ha recentemente confermato di aver ridisegnato il suo motore di ricerca Bing per sfruttare il modello GPT-4. Google, da parte sua, ha recentemente lanciato Bard, il proprio sistema di intelligenza artificiale generativa basato su LaMDA. Questo problema esiste da molto tempo, ma la gara in cui si trovano oggi le aziende tecnologiche sembra essere ancora più preoccupante.
“Sfortunatamente, questo livello di pianificazione e gestione non esiste, i laboratori di intelligenza artificiale sono al lavoro per sviluppare e distribuire cervelli virtuali che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in alcun modo. Al sicuro”, si legge nello speciale.
Sono preoccupati per gli sviluppi (troppo) rapidi nell’area e per l’insicurezza intorno
Questa lettera è stata pubblicata dal Future of Life Institute (FLI), un’organizzazione impegnata a ridurre i rischi e l’uso improprio delle nuove tecnologie. In precedenza, Elon Musk aveva donato 10 milioni di dollari alla FLI per studiare la sicurezza dell’IA. Oltre a Steve Wozniak e quest’ultimo, ci sono grandi nomi nel campo dell’intelligenza artificiale come il presidente del Center for AI e della politica digitale Mark Rothenberg, il fisico del MIT e presidente della FLI Max Tegmark e lo scrittore Yuval Noah Harari. Quest’ultimo ha anche scritto un editoriale del New York Times la scorsa settimana sui rischi posti dall’intelligenza artificiale con i fondatori del Center for Humane Technology e altri firmatari Tristan Harris e Aza Raskin.
Questa chiamata sembra in qualche modo un logico seguito a un sondaggio del 2022 condotto su oltre 700 ricercatori di machine learning, che ha rilevato che quasi la metà dei partecipanti ha affermato che c’era una probabilità del 10% che le conseguenze dell’IA sarebbero state “estremamente negative”. Alla domanda sulla sicurezza della ricerca sull’IA, il 68% dei ricercatori ha risposto che è necessario fare di più o molto di più.
Lascia un commento