Technikos lyderiai ir ekspertai ragina daryti 6 mėnesių pertrauką nuo AI eksperimentavimo

Technikos lyderiai ir ekspertai ragina daryti 6 mėnesių pertrauką nuo AI eksperimentavimo

Technikos lyderiai ir ekspertai ragina daryti 6 mėnesių pertrauką nuo AI eksperimentavimo. Jie susirūpinę dėl (per daug) neramių įvykių šioje srityje ir saugumo trūkumo aplinkui.

Atvirame laiške, kurį pasirašė technologijų lyderiai ir kiti aukšto lygio AI tyrėjai, AI laboratorijos ir įmonės raginamos „ nedelsiant sustabdyti “ savo darbą. Pasirašiusieji, įskaitant Steve’ą Wozniaką ir Eloną Muską, norėtų padaryti bent šešių mėnesių pertrauką nuo GPT-4 pagrįstų technologijų gamybos, kad pasinaudotų esamomis AI sistemomis ir leistų žmonėms prisitaikyti bei užtikrinti, kad jos būtų naudingos visiems. Laiške priduriama, kad mąstymas ir numatymas yra būtini norint apsaugoti dirbtinio intelekto sistemas.

Technikos lyderiai ir ekspertai ragina daryti 6 mėnesių pertrauką nuo AI eksperimentavimo

Nuoroda į GPT-4, OpenAI modelį, galintį atsakyti tekstu į rašytinius ar vaizdinius pranešimus, atsiranda, kai įmonės jau bando kurti sudėtingas pokalbių sistemas naudodamos šią technologiją. Pavyzdžiui, „Microsoft“ neseniai patvirtino, kad perkūrė savo „Bing“ paieškos variklį, kad pasinaudotų GPT-4 modeliu. „Google“ savo ruožtu neseniai pristatė „Bard“ – savo generuojamąją dirbtinio intelekto sistemą, pagrįstą LaMDA. Ši problema egzistuoja ilgą laiką, tačiau atrodo, kad lenktynių technologijų įmonės šiandien kelia dar didesnį nerimą.

„Deja, tokio planavimo ir valdymo lygmens nėra, dirbtinio intelekto laboratorijos sunkiai dirba kurdamos ir diegdamos virtualias smegenis, kurių niekas – net jų kūrėjai – negali suprasti, numatyti ar valdyti niekaip. Saugu“, – galime perskaityti specialiame.

Jie susirūpinę dėl (per daug) greitų pokyčių šioje srityje ir nesaugumo aplinkui

Šį laišką paskelbė Future of Life Institute (FLI), organizacija, pasiryžusi sumažinti riziką ir netinkamą naujų technologijų naudojimą. Anksčiau Elonas Muskas paaukojo 10 milijonų dolerių FLI, kad ištirtų dirbtinio intelekto saugumą. Be Steve’o Wozniako ir pastarojo, dirbtinio intelekto srityje yra didelių vardų, tokių kaip AI centro ir skaitmeninės politikos prezidentas Markas Rothenbergas, MIT fizikas ir FLI prezidentas Maxas Tegmarkas ir rašytojas Yuvalis Noah Harari. Pastarasis praėjusią savaitę taip pat parašė New York Times pranešimą apie AI keliamą riziką kartu su Humane Technology įkūrėjais ir kitais signatarais Tristanu Harrisu ir Aza Raskin.

Šis raginimas atrodo šiek tiek logiškas 2022 m. apklausos, kurioje dalyvavo daugiau nei 700 mašininio mokymosi tyrėjų, tęsinys, kuriame nustatyta, kad beveik pusė dalyvių teigė, kad yra 10 procentų tikimybė, kad AI pasekmės bus „labai blogos“ iki žmonijos išnykimo. Paklausti apie dirbtinio intelekto tyrimų saugumą, 68 % tyrėjų atsakė, kad reikia nuveikti daugiau ar daug daugiau.

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *