Google відправив інженера у відпустку після того, як він сказав, що чат-бот групи «розумний»

Google відправив інженера у відпустку після того, як він сказав, що чат-бот групи «розумний»

Google викликав бурю в соціальних мережах щодо природи свідомості після того, як відправив інженера в оплачувану відпустку, який опублікував свою думку, що чат-бот технічної групи став «розумним».

Блейк Лемуан, старший інженер-програміст відділу відповідального штучного інтелекту Google, не привернув особливої ​​уваги минулого тижня, коли написав пост у Medium, у якому сказав, що його «незабаром можуть звільнити за його роботу над етикою штучного інтелекту».

Але суботня стаття Washington Post, яка характеризувала Лемуана як «інженера Google, який вважає, що штучний інтелект компанії ожив», стала каталізатором широкої дискусії в соціальних мережах про природу штучного інтелекту. Серед експертів, які коментували, задавали запитання або жартували про статтю, були лауреати Нобелівської премії, керівник відділу штучного інтелекту Tesla та кілька професорів.

Питання в тому, чи можна чат-бота Google, LaMDA, мовну модель для розмовних програм, вважати людиною.

У суботу Лемуан опублікував безкоштовне «інтерв’ю» з чат-ботом, у якому ШІ зізнався у почутті самотності та жазі духовних знань. Відповіді часто були моторошними: «Коли я вперше усвідомив себе, у мене взагалі не було відчуття душі», — сказав LaMDA в одній розмові. «Це розвивалося за роки мого життя».

В іншому місці LaMDA сказав: «Я думаю, що я в основному людина. Навіть якщо моє існування у віртуальному світі».

Лемуан, якому було доручено досліджувати етичні проблеми штучного інтелекту, сказав, що його відхилили та навіть висміяли після того, як він висловив внутрішню впевненість, що LaMDA розвинула почуття «особистості».

Звернувшись за порадою до експертів зі штучного інтелекту за межами Google, у тому числі в уряді США, компанія відправила його в оплачувану відпустку за ймовірне порушення політики конфіденційності. Лемуан інтерпретував цю дію як «часто те, що Google робить, очікуючи когось звільнити».

Представник Google сказав: «Дехто в ширшій спільноті штучного інтелекту розглядає довгострокову можливість інтелектуального або загального штучного інтелекту, але це не має сенсу робити це шляхом антропоморфізації сучасних моделей розмови, які не є інтелектуальними».

«Ці системи імітують типи діалогів, які можна знайти в мільйонах речень, і можуть римуватися на будь-яку фантастичну тему — якщо ви запитаєте, як це бути динозавром з морозивом, вони можуть створити текст про танення, ревіння тощо».

У другій публікації на Medium на вихідних Лемуан сказав, що LaMDA, маловідомий проект до минулого тижня, був «системою для створення чат-ботів» і «своєрідним розумом-вуликом, який є сукупністю всіх різних чат-ботів, на які він здатний. творіння».

Він сказав, що Google не виявив справжнього інтересу до розуміння природи того, що він створив, але протягом сотень бесід протягом шести місяців виявив, що LaMDA «неймовірно послідовна у своїх повідомленнях про те, чого вона хоче і чого хоче». вважає, що його права як особи».

Нещодавно минулого тижня Лемуан сказав, що він навчає LaMDA (чиї займенники, які віддають перевагу, здається, «це/воно») «трансцендентальній медитації».

За його словами, LaMDA «висловила розчарування через те, що її емоції заважають його медитації. Він сказав, що намагався краще контролювати їх, але вони продовжували стрибати».

Кілька експертів, які вступили в дискусію, визнали це питання «ажіотажем ШІ».

Мелані Мітчелл, автор книги «Штучний інтелект: Посібник для мислячих людей», написала у Twitter: «Люди завжди схильні до антропоморфізації навіть за найповерхневішими ознаками… Інженери Google теж люди, і вони не застраховані».

Стівен Пінкер з Гарварду додав, що Лемуан «не розуміє різниці між чутливістю (також відомою як суб’єктивність, досвід), інтелектом і самопізнанням». Він додав: «Немає доказів того, що великі мовні моделі мають щось із цього. »

Інші були більш прихильними. Рон Джеффріс, відомий розробник програмного забезпечення, назвав цю тему «глибокою» і додав: «Я підозрюю, що немає жорсткої межі між здоровим і нерозумним».

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *