Tehnoloģiju vadītāji un eksperti aicina 6 mēnešus pārtraukt AI eksperimentēšanu
Tehnoloģiju vadītāji un eksperti aicina 6 mēnešu pārtraukumu no AI eksperimentēšanas. Viņi ir nobažījušies par (pārāk) nemierīgajiem notikumiem šajā jomā un drošības trūkumu apkārt.
Atklātajā vēstulē, ko parakstījuši tehnoloģiju vadītāji un citi augsta līmeņa AI pētnieki, AI laboratorijas un uzņēmumi tiek aicināti “ nekavējoties apturēt ” savu darbu. Parakstītāji, tostarp Stīvs Vozņaks un Elons Masks, vēlētos vismaz sešu mēnešu pārtraukumu no uz GPT-4 balstītu tehnoloģiju ražošanas, lai izmantotu esošās mākslīgā intelekta sistēmas un ļautu cilvēkiem pielāgoties un nodrošināt, ka tās var sniegt labumu ikvienam. Vēstulē piebilsts, ka pārdomāšana un tālredzība ir būtiska AI sistēmu drošībai.
Tehnoloģiju vadītāji un eksperti aicina 6 mēnešus pārtraukt AI eksperimentēšanu
Atsauce uz GPT-4, OpenAI modeli, kas var atbildēt ar tekstu uz rakstītiem vai vizuāliem ziņojumiem, rodas, jo uzņēmumi jau mēģina izstrādāt sarežģītas tērzēšanas sistēmas, izmantojot šo tehnoloģiju. Piemēram, Microsoft nesen apstiprināja, ka ir pārveidojis savu Bing meklētājprogrammu, lai izmantotu GPT-4 modeļa priekšrocības. Google no savas puses nesen uzsāka Bard, savu ģeneratīvo mākslīgā intelekta sistēmu, kuras pamatā ir LaMDA. Šī problēma pastāv jau ilgu laiku, taču šķiet, ka šodienas sacīkšu tehnoloģiju uzņēmumi ir vēl satraucošāki.
“Diemžēl šāds plānošanas un pārvaldības līmenis nepastāv, AI laboratorijas smagi strādā, izstrādājot un izvietojot virtuālās smadzenes, kuras neviens – pat to veidotāji – nevar saprast, paredzēt vai kontrolēt nekādā veidā. Drošs,” vai varam lasīt īpašajā.
Viņi ir nobažījušies par (pārāk) straujo attīstību reģionā un nedrošību apkārt
Šo vēstuli publicēja Future of Life Institute (FLI), organizācija, kas ir apņēmusies samazināt jauno tehnoloģiju riskus un ļaunprātīgu izmantošanu. Iepriekš Elons Masks ziedoja 10 miljonus ASV dolāru FLI, lai pētītu mākslīgā intelekta drošību. Neatkarīgi no Stīva Vozņaka un pēdējā AI jomā ir tādi lieli vārdi kā AI centra un digitālās politikas prezidents Marks Rotenbergs, MIT fiziķis un FLI prezidents Makss Tegmarks un rakstnieks Yuval Noah Harari. Pēdējais arī rakstīja New York Times pagājušajā nedēļā par riskiem, ko rada AI, kopā ar Humāno tehnoloģiju centra dibinātājiem un citiem parakstītājiem Tristanu Harisu un Azu Raskinu.
Šis aicinājums šķiet zināmā mērā loģisks turpinājums 2022. gadā veiktajai aptaujai, kurā piedalījās vairāk nekā 700 mašīnmācības pētnieku, un kurā atklājās, ka gandrīz puse dalībnieku teica, ka pastāv 10 procentu iespēja, ka AI sekas būs “ārkārtīgi sliktas” līdz cilvēces izzušanai. Jautāti par AI pētījumu drošību, 68% pētnieku atbildēja, ka ir jādara vairāk vai daudz vairāk.
Atbildēt