Tekniske ledere og eksperter kræver en 6-måneders pause fra AI-eksperimenter

Tekniske ledere og eksperter kræver en 6-måneders pause fra AI-eksperimenter

Teknologiske ledere og eksperter kræver en 6-måneders pause fra AI-eksperimenter. De er bekymrede over de (alt for) turbulente begivenheder i dette område og den manglende sikkerhed omkring.

Det åbne brev, underskrevet af teknologiledere og andre højprofilerede AI-forskere, opfordrer AI-laboratorier og virksomheder til ” omgående at suspendere ” deres arbejde. Underskriverne, inklusive Steve Wozniak og Elon Musk, vil gerne tage en pause på mindst seks måneder fra at producere GPT-4-baserede teknologier for at drage fordel af eksisterende AI-systemer og give folk mulighed for at tilpasse sig og sikre, at de kan gavne alle. Brevet tilføjer, at tankegang og fremsyn er afgørende for at sikre AI-systemer.

Tekniske ledere og eksperter kræver en 6-måneders pause fra AI-eksperimenter

Henvisningen til GPT-4, en OpenAI-model, der kan reagere med tekst på skriftlige eller visuelle beskeder, kommer, da virksomheder allerede forsøger at udvikle sofistikerede chatsystemer ved hjælp af denne teknologi. Microsoft har for eksempel for nylig bekræftet, at det har redesignet sin Bing-søgemaskine for at drage fordel af GPT-4-modellen. Google på sin side lancerede for nylig Bard, sit eget generative kunstige intelligens-system baseret på LaMDA. Dette problem har eksisteret i lang tid, men det race tech-virksomheder er i i dag ser ud til at være endnu mere bekymrende.

“Desværre eksisterer dette niveau af planlægning og ledelse ikke, AI-laboratorier arbejder hårdt på at udvikle og implementere virtuelle hjerner, som ingen – ikke engang deres skabere – kan forstå, forudsige eller kontrollere på nogen måde. Sikkert,” kan vi læse i specialen.

De er bekymrede over den (alt for) hurtige udvikling i området og utrygheden omkring

Dette brev blev udgivet af Future of Life Institute (FLI), en organisation, der er forpligtet til at reducere risici og misbrug af nye teknologier. Tidligere donerede Elon Musk 10 millioner dollars til FLI for at studere sikkerheden ved kunstig intelligens. Bortset fra Steve Wozniak og sidstnævnte er der store navne inden for AI, såsom Center for AI og Digital Policy-præsident Mark Rothenberg, MIT-fysiker og FLI-præsident Max Tegmark og forfatter Yuval Noah Harari. Sidstnævnte skrev også en nyhed i New York Times i sidste uge om risiciene ved AI med Center for Humane Technology-grundlæggere og andre underskrivere Tristan Harris og Aza Raskin.

Denne opfordring virker noget af en logisk opfølgning på en undersøgelse fra 2022 blandt mere end 700 maskinlæringsforskere, som fandt ud af, at næsten halvdelen af ​​deltagerne sagde, at der var en 10 procents chance for, at konsekvenserne af AI ville være “ekstremt dårlige.” indtil menneskehedens udryddelse. Da de blev spurgt om sikkerheden ved AI-forskning, svarede 68 % af forskerne, at der skal gøres mere eller meget mere.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *