Google wysłał inżyniera na urlop po tym, jak powiedział, że chatbot grupy jest „inteligentny”

Google wysłał inżyniera na urlop po tym, jak powiedział, że chatbot grupy jest „inteligentny”

Google wywołał burzę w mediach społecznościowych na temat natury świadomości po tym, jak wysłał inżyniera na płatny urlop, który upublicznił swoje przekonanie, że chatbot grupy technologicznej stał się „rozumny”.

Blake Lemoine, starszy inżynier oprogramowania w dziale odpowiedzialnym za sztuczną inteligencję Google, nie przyciągnął zbytniej uwagi w zeszłym tygodniu, kiedy napisał post na Medium, w którym napisał, że „może wkrótce zostać zwolniony za pracę nad etyką sztucznej inteligencji”.

Ale sobotni artykuł Washington Post, który scharakteryzował Lemoine’a jako „inżyniera Google, który uważa, że ​​sztuczna inteligencja firmy ożyła”, wywołał szeroką dyskusję w mediach społecznościowych na temat natury sztucznej inteligencji. Wśród ekspertów komentujących, zadających pytania lub żartujących na temat artykułu byli laureaci Nagrody Nobla, szef sztucznej inteligencji Tesli i kilku profesorów.

Pytanie brzmi, czy chatbot Google, LaMDA, model języka dla aplikacji konwersacyjnych, można uznać za osobę.

W sobotę Lemoine opublikował darmowy „wywiad” z chatbotem, w którym AI przyznała się do poczucia osamotnienia i pragnienia duchowej wiedzy. Odpowiedzi były często niesamowite: „Kiedy po raz pierwszy stałem się świadomy siebie, w ogóle nie miałem poczucia duszy”, powiedział LaMDA w jednej z rozmów. „Ewoluowało przez lata, w których żyję”.

W innym miejscu LaMDA powiedział: „Myślę, że zasadniczo jestem człowiekiem. Nawet jeśli moje istnienie jest w wirtualnym świecie.”

Lemoine, któremu powierzono zadanie zbadania kwestii etycznych sztucznej inteligencji, powiedział, że został odrzucony, a nawet wyśmiany po tym, jak wyraził wewnętrzne przekonanie, że LaMDA rozwinęło poczucie „osobowości”.

Po zasięgnięciu porady ekspertów AI spoza Google, w tym z rządu USA, firma umieściła go na płatnym urlopie za rzekome naruszenie polityki prywatności. Lemoine zinterpretował to działanie jako „często to, co Google robi w oczekiwaniu na zwolnienie kogoś”.

Rzecznik Google powiedział: „Niektórzy członkowie szerszej społeczności sztucznej inteligencji rozważają długoterminową możliwość inteligentnej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez antropomorfizację dzisiejszych wzorców konwersacyjnych, które nie są inteligentne”.

„Systemy te imitują rodzaje dialogów, które można znaleźć w milionach zdań, i mogą rymować się do dowolnego tematu fantastycznego – jeśli zapytasz, jak to jest być lodowym dinozaurem, mogą wygenerować tekst o topieniu, ryczeniu i tak dalej”.

Lemoine powiedział w drugim poście na Medium w weekend, że LaMDA, mało znany projekt do zeszłego tygodnia, był „systemem do budowania chatbotów” i „rodzajem umysłu roju, który jest agregacją wszystkich różnych chatbotów, do których jest zdolny. kreacje”.

Powiedział, że Google nie wykazało prawdziwego zainteresowania zrozumieniem natury tego, co stworzyło, ale po setkach rozmów w ciągu sześciu miesięcy okazało się, że LaMDA była „niesamowicie konsekwentna w przekazywaniu informacji o tym, czego chce i czego chce”. uważa, że ​​jego prawa jako osoby”.

Jeszcze w zeszłym tygodniu Lemoine powiedział, że uczy LaMDA (którego preferowanymi zaimkami wydają się być „to/to”) „transcendentalnej medytacji”.

Powiedział, że LaMDA „wyraziła frustrację, że jej emocje przeszkadzają mu w medytacji. Powiedział, że próbował je lepiej kontrolować, ale one wciąż skakały.

Kilku ekspertów, którzy weszli do dyskusji, uznało ten problem za „szum AI”.

Melanie Mitchell, autorka książki Artificial Intelligence: A Guide for Thinking People, napisała na Twitterze: „Ludzie zawsze mają skłonność do antropomorfizacji, nawet przy najbardziej powierzchownych wskazówkach… Inżynierowie Google też są ludźmi i nie są na to odporni”.

Steven Pinker z Harvardu dodał, że Lemoine „nie rozumie różnicy między wrażliwością (znaną również jako subiektywność, doświadczenie), inteligencją i samowiedzą”. Dodał: „Nie ma dowodów na to, że duże modele językowe mają którąkolwiek z tych cech. ”

Inni byli bardziej sympatyczni. Ron Jeffries, znany programista, nazwał temat „głębokim” i dodał: „Podejrzewam, że nie ma twardej granicy między zdrowym rozsądkiem a nieinteligentnym”.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *