Технічні лідери та експерти закликають до 6-місячної перерви в експериментах зі ШІ

Технічні лідери та експерти закликають до 6-місячної перерви в експериментах зі ШІ

Технічні лідери та експерти закликають до 6-місячної перерви в експериментах зі ШІ. Вони стурбовані (надто) бурхливими подіями в цьому районі та відсутністю безпеки навколо.

Відкритий лист, підписаний лідерами технологій та іншими високопоставленими дослідниками ШІ, закликає лабораторії та компанії ШІ « негайно призупинити » свою роботу. Підписанти, включаючи Стіва Возняка та Ілона Маска, хотіли б зробити перерву принаймні на шість місяців у створенні технологій на основі GPT-4, щоб скористатися перевагами існуючих систем штучного інтелекту та дозволити людям адаптуватися та забезпечити користь усім. У листі додається, що розум і передбачення є важливими для захисту систем ШІ.

Технічні лідери та експерти закликають до 6-місячної перерви в експериментах зі ШІ

Посилання на GPT-4, модель OpenAI, яка може відповідати текстом на письмові або візуальні повідомлення, з’являється в той момент, коли компанії вже намагаються розробити складні системи чату за допомогою цієї технології. Microsoft, наприклад, нещодавно підтвердила, що вона переробила свою пошукову систему Bing, щоб скористатися перевагами моделі GPT-4. Google, зі свого боку, нещодавно запустив Bard, власну систему генеративного штучного інтелекту на основі LaMDA. Ця проблема існує протягом тривалого часу, але гоночні технологічні компанії сьогодні викликають ще більше занепокоєння.

«На жаль, такого рівня планування та управління не існує, лабораторії штучного інтелекту наполегливо працюють над розробкою та розгортанням віртуальних мізків, які ніхто, навіть їхні творці, не можуть зрозуміти, передбачити чи якимось чином контролювати. Безпечно», – читаємо в спец.

Вони стурбовані (надто) швидким розвитком подій у регіоні та небезпекою навколо

Цей лист опублікував Інститут майбутнього життя (FLI), організація, яка прагне зменшити ризики та зловживання новими технологіями. Раніше Ілон Маск пожертвував $10 млн FLI на вивчення безпеки ШІ. Окрім Стіва Возняка та останнього, у галузі штучного інтелекту є такі відомі імена, як президент Центру штучного інтелекту та цифрової політики Марк Ротенберг, фізик Массачусетського технологічного інституту та президент FLI Макс Тегмарк та письменник Ювал Ной Харарі. Останній також написав коментар у New York Times минулого тижня про ризики, пов’язані зі штучним інтелектом, разом із засновниками Центру гуманних технологій та іншими підписантами Трістаном Харрісом і Азою Раскін.

Цей заклик здається певною мірою логічним продовженням опитування 2022 року, в якому взяли участь понад 700 дослідників машинного навчання, яке виявило, що майже половина учасників сказали, що існує 10-відсоткова ймовірність того, що наслідки ШІ будуть «надзвичайно поганими» аж до вимирання людства. На запитання про безпеку досліджень штучного інтелекту 68% дослідників відповіли, що потрібно зробити більше або набагато більше.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *