Tekniska ledare och experter kräver en 6-månaders paus från AI-experiment

Tekniska ledare och experter kräver en 6-månaders paus från AI-experiment. De är oroade över de (alltför) turbulenta händelserna i detta område och bristen på säkerhet runt omkring.
Det öppna brevet, undertecknat av teknikledare och andra högprofilerade AI-forskare, uppmanar AI-labb och företag att ” omedelbart avbryta ” sitt arbete. Undertecknarna, inklusive Steve Wozniak och Elon Musk, skulle vilja ta en paus på minst sex månader från att producera GPT-4-baserade teknologier för att dra fördel av befintliga AI-system och låta människor anpassa sig och se till att de kan gynna alla. Brevet tillägger att eftertanke och framförhållning är avgörande för att säkra AI-system.
Tekniska ledare och experter kräver en 6-månaders paus från AI-experiment
Hänvisningen till GPT-4, en OpenAI-modell som kan svara med text på skrivna eller visuella meddelanden, kommer eftersom företag redan försöker utveckla sofistikerade chattsystem med denna teknik. Microsoft, till exempel, bekräftade nyligen att de har gjort om sin Bing-sökmotor för att dra nytta av GPT-4-modellen. Google, å sin sida, lanserade nyligen Bard, sitt eget generativa artificiella intelligenssystem baserat på LaMDA. Det här problemet har funnits länge, men tävlingsteknikföretagen är i idag verkar vara ännu mer oroande.
”Tyvärr existerar inte denna nivå av planering och ledning, AI-labb arbetar hårt med att utveckla och distribuera virtuella hjärnor som ingen – inte ens deras skapare – kan förstå, förutsäga eller kontrollera på något sätt. Säkert”, kan vi läsa i specialen.
De är oroade över den (för) snabba utvecklingen i området och otryggheten runt omkring
Detta brev publicerades av Future of Life Institute (FLI), en organisation som har åtagit sig att minska riskerna och missbruket av ny teknik. Tidigare donerade Elon Musk 10 miljoner dollar till FLI för att studera säkerheten för AI. Förutom Steve Wozniak och den sistnämnde finns det stora namn inom AI-området som Center for AI och Digital Policy-president Mark Rothenberg, MIT-fysiker och FLI-president Max Tegmark och författaren Yuval Noah Harari. Den sistnämnde skrev också en artikel i New York Times förra veckan om riskerna med AI med Center for Humane Technologys grundare och andra undertecknare Tristan Harris och Aza Raskin.
Denna uppmaning verkar vara något av en logisk uppföljning av en undersökning från 2022 av mer än 700 maskininlärningsforskare, som fann att nästan hälften av deltagarna sa att det fanns en 10-procentig chans att konsekvenserna av AI skulle bli ”extremt dåliga” fram till mänsklighetens utrotning. På frågan om säkerheten i AI-forskning svarade 68 % av forskarna att mer eller mycket mer måste göras.
Lämna ett svar