Tekniset johtajat ja asiantuntijat vaativat kuuden kuukauden taukoa tekoälykokeiluissa
Tekniset johtajat ja asiantuntijat vaativat kuuden kuukauden taukoa tekoälykokeiluista. He ovat huolissaan (liian) myrskyisistä tapahtumista tällä alueella ja turvallisuuden puutteesta ympärillä.
Teknologiajohtajien ja muiden korkean profiilin tekoälytutkijoiden allekirjoittamassa avoimessa kirjeessä kehotetaan tekoälylaboratorioita ja yrityksiä keskeyttämään työnsä välittömästi . Allekirjoittajat, mukaan lukien Steve Wozniak ja Elon Musk, haluaisivat pitää vähintään kuuden kuukauden tauon GPT-4-pohjaisten teknologioiden tuotannossa hyödyntääkseen olemassa olevia tekoälyjärjestelmiä ja antaakseen ihmisten mukautua ja varmistaakseen, että niistä on hyötyä kaikille. Kirjeessä lisätään, että ajattelu ja ennakointi ovat välttämättömiä tekoälyjärjestelmien turvaamiseksi.
Tekniset johtajat ja asiantuntijat vaativat kuuden kuukauden taukoa tekoälykokeiluissa
Viittaus GPT-4:ään, OpenAI-malliin, joka voi vastata tekstillä kirjoitettuihin tai visuaalisiin viesteihin, tulee, kun yritykset yrittävät jo kehittää kehittyneitä chat-järjestelmiä tällä tekniikalla. Esimerkiksi Microsoft vahvisti äskettäin, että se on suunnitellut uudelleen Bing-hakukoneensa hyödyntääkseen GPT-4-mallia. Google puolestaan lanseerasi äskettäin Bardin, oman LaMDA:han perustuvan generatiivisen tekoälyjärjestelmän. Tämä ongelma on ollut olemassa jo pitkään, mutta nykyiset kilpateknologiayritykset näyttävät olevan vieläkin huolestuttavampia.
”Valitettavasti tällaista suunnittelun ja hallinnan tasoa ei ole olemassa, tekoälylaboratoriot tekevät kovaa työtä kehittäen ja ottamalla käyttöön virtuaalisia aivoja, joita kukaan – eivät edes niiden tekijät – voi ymmärtää, ennustaa tai hallita millään tavalla. Turvallinen”, voimme lukea erikoisartikkelista.
He ovat huolissaan alueen (liian) nopeasta kehityksestä ja ympärillä olevasta turvattomuudesta
Tämän kirjeen julkaisi Future of Life Institute (FLI), organisaatio, joka on sitoutunut vähentämään uusien teknologioiden riskejä ja väärinkäyttöä. Aiemmin Elon Musk lahjoitti 10 miljoonaa dollaria FLI:lle tutkiakseen tekoälyn turvallisuutta. Steve Wozniakin ja jälkimmäisen lisäksi tekoälyn alalla on suuria nimiä, kuten Center for AI and Digital Policy -johtaja Mark Rothenberg, MIT:n fyysikko ja FLI:n presidentti Max Tegmark sekä kirjailija Yuval Noah Harari. Viimeksi mainittu kirjoitti myös New York Times -julkaisun viime viikolla tekoälyn riskeistä yhdessä Center for Humane Technologyn perustajien ja muiden allekirjoittajien Tristan Harrisin ja Aza Raskinin kanssa.
Tämä kehotus vaikuttaa jokseenkin loogiselta jatkoksi yli 700 koneoppimisen tutkijan vuonna 2022 tekemälle tutkimukselle, jossa todettiin, että lähes puolet osallistujista sanoi, että tekoälyn seuraukset olisivat 10 prosentin todennäköisyydellä ”erittäin pahat” ihmiskunnan sukupuuttoon asti. Tekoälytutkimuksen turvallisuudesta kysyttäessä 68 % tutkijoista vastasi, että enemmän tai paljon enemmän on tehtävä.
Vastaa