Tehnikajuhid ja eksperdid nõuavad tehisintellekti katsetamises 6-kuulist pausi

Tehnikajuhid ja eksperdid nõuavad 6-kuulist pausi tehisintellekti katsetamises. Nad on mures (liiga) rahutute sündmuste pärast selles piirkonnas ja turvalisuse puudumise pärast.
Tehnoloogiajuhtide ja teiste kõrgetasemeliste tehisintellekti teadlaste allkirjastatud avalikus kirjas kutsutakse tehisintellekti laboreid ja ettevõtteid oma töö viivitamatult peatama . Allakirjutanud, sealhulgas Steve Wozniak ja Elon Musk, tahaksid teha GPT-4-põhiste tehnoloogiate tootmises vähemalt kuuekuulise pausi, et kasutada ära olemasolevaid tehisintellektisüsteeme ning võimaldada inimestel kohaneda ja tagada, et neist oleks kasu kõigile. Kirjas lisatakse, et läbimõeldus ja ettenägelikkus on tehisintellektisüsteemide turvalisuse tagamiseks hädavajalikud.
Tehnikajuhid ja eksperdid nõuavad tehisintellekti katsetamises 6-kuulist pausi
Viide GPT-4-le, OpenAI mudelile, mis suudab vastata tekstiga kirjalikele või visuaalsetele sõnumitele, tuleb siis, kui ettevõtted juba üritavad seda tehnoloogiat kasutades välja töötada keerukaid vestlussüsteeme. Näiteks Microsoft kinnitas hiljuti, et on oma Bingi otsingumootori ümber kujundanud, et kasutada ära GPT-4 mudelit. Google omalt poolt tõi hiljuti turule oma LaMDA-l põhineva generatiivse tehisintellekti süsteemi Bard. See probleem on olnud juba pikka aega, kuid tänapäeval on rassitehnoloogia ettevõtted veelgi murettekitavamad.
„Kahjuks sellist planeerimise ja juhtimise taset ei eksisteeri, tehisintellekti laborid töötavad kõvasti välja ja juurutavad virtuaalseid ajusid, mida keegi – isegi mitte nende loojad – ei suuda kuidagi mõista, ennustada ega kontrollida. Ohutu,” saame eriväljaandest lugeda.
Nad on mures piirkonna (liiga) kiirete arengute ja ümbritseva ebakindluse pärast
Selle kirja avaldas Future of Life Institute (FLI), organisatsioon, mis on pühendunud uute tehnoloogiate riskide ja väärkasutuse vähendamisele. Varem annetas Elon Musk FLI-le 10 miljonit dollarit tehisintellekti ohutuse uurimiseks. Peale Steve Wozniaki ja viimase on tehisintellekti valdkonnas suuri nimesid nagu AI ja digitaalpoliitika president Mark Rothenberg, MIT-i füüsik ja FLI president Max Tegmark ning kirjanik Yuval Noah Harari. Viimane kirjutas eelmisel nädalal New York Timesile ka AI riskide kohta koos Humane Technology keskuse asutajate ja teiste allakirjutanutega Tristan Harrise ja Aza Raskiniga.
See üleskutse näib olevat mõnevõrra loogiline järg 2022. aasta küsitlusele, milles osales enam kui 700 masinõppe teadlast, mis leidis, et peaaegu pooled osalejad ütlesid, et 10-protsendiline tõenäosus on AI tagajärjed olla „äärmiselt halvad” kuni inimkonna väljasuremiseni. Küsimusele tehisintellektiuuringute ohutuse kohta vastas 68% teadlastest, et teha tuleb rohkem või palju rohkem.
Lisa kommentaar