Технические лидеры и эксперты призывают к 6-месячному перерыву в экспериментах с ИИ

Технические лидеры и эксперты призывают к 6-месячному перерыву в экспериментах с ИИ. Их беспокоят (слишком) бурные события в этом районе и отсутствие безопасности вокруг.

В открытом письме, подписанном технологическими лидерами и другими известными исследователями ИИ, содержится призыв к лабораториям и компаниям ИИ « немедленно приостановить » свою работу. Подписанты, в том числе Стив Возняк и Илон Маск, хотели бы сделать перерыв не менее чем на шесть месяцев от производства технологий на основе GPT-4, чтобы воспользоваться преимуществами существующих систем искусственного интеллекта и позволить людям адаптироваться и гарантировать, что они принесут пользу всем. В письме добавляется, что мысль и дальновидность необходимы для защиты систем ИИ.

Технические лидеры и эксперты призывают к 6-месячному перерыву в экспериментах с ИИ

Ссылка на GPT-4, модель OpenAI, которая может отвечать текстом на письменные или визуальные сообщения, связана с тем, что компании уже пытаются разрабатывать сложные системы чата с использованием этой технологии. Microsoft, например, недавно подтвердила, что она изменила дизайн своей поисковой системы Bing, чтобы воспользоваться преимуществами модели GPT-4. Google, со своей стороны, недавно запустил Bard, собственную систему генеративного искусственного интеллекта, основанную на LaMDA. Эта проблема существует уже давно, но сегодняшние технологические компании, занимающиеся гонкой, кажутся еще более тревожными.

«К сожалению, такого уровня планирования и управления не существует, лаборатории искусственного интеллекта усердно работают над разработкой и внедрением виртуальных мозгов, которые никто — даже их создатели — не может понять, предсказать или каким-либо образом контролировать. Сейф», можно прочитать в спец.

Они обеспокоены (слишком) быстрыми событиями в этом районе и отсутствием безопасности вокруг.

Это письмо было опубликовано Институтом будущего жизни (FLI), организацией, стремящейся снизить риски и неправомерное использование новых технологий. Ранее Илон Маск пожертвовал FLI 10 миллионов долларов на изучение безопасности ИИ. Помимо Стива Возняка и последнего, в области ИИ есть громкие имена, такие как президент Центра ИИ и цифровой политики Марк Ротенберг, физик Массачусетского технологического института и президент FLI Макс Тегмарк и писатель Юваль Ной Харари. Последний также написал статью в New York Times на прошлой неделе о рисках, связанных с ИИ, вместе с основателями Центра гуманных технологий и другими подписантами Тристаном Харрисом и Азой Раскиным.

Этот призыв кажется в некотором роде логическим продолжением опроса более 700 исследователей машинного обучения, проведенного в 2022 году, который показал, что почти половина участников заявила, что существует 10-процентная вероятность того, что последствия ИИ будут «чрезвычайно плохими» до вымирания человечества. На вопрос о безопасности исследований ИИ 68% исследователей ответили, что необходимо сделать больше или намного больше.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *