Badacz Google Fires, który twierdzi, że AI LaMDA jest świadomy
Google zwolnił inżyniera, który powiedział, że sztuczna inteligencja LaMDA jest świadoma. Twierdzenia, które zostały bardzo źle przyjęte przez społeczność naukową.
Blake Lemoine, inżynier z 7-letnim doświadczeniem w Google, został zwolniony , według Alexa Kantrowitza w biuletynie Big Technology. Tę wiadomość miał ujawnić osobiście Blake Lemoine podczas nagrywania podcastu o tym samym tytule, którego premiera nie została jeszcze opublikowana. Google potwierdziło jednak tę informację Engadgetowi.
Inżynier Google Fires, który twierdzi, że sztuczna inteligencja LaMDA zyskała świadomość
Blake Lemoine, który do niedawna był członkiem zespołu ds. odpowiedzialnej sztucznej inteligencji, w zeszłym miesiącu skontaktował się z Washington Post, aby zgłosić, że jeden z projektów amerykańskiego giganta AI wydaje się mieć sumienie. Wspomniana sztuczna inteligencja, LaMDA, dla modelu językowego dla aplikacji konwersacyjnych, została wprowadzona przez Google w zeszłym roku. Miało to umożliwić komputerom lepsze odtwarzanie otwartych rozmów. Blake Lemoine był przekonany, że LaMDA ma sumienie, ale wątpił również w możliwość posiadania duszy. Aby nie pozostawiać wątpliwości co do tych stwierdzeń, powiedział nawet Wired, co następuje: „Jestem głęboko przekonany, że LaMDA jest osobą”.
Po złożeniu oświadczeń prasie, najprawdopodobniej bez zgody pracodawcy, Blake Lemoine został skierowany na urlop administracyjny. Google również kilkakrotnie publicznie stwierdził, że jego sztuczna inteligencja nie jest w żaden sposób świadoma.
Oświadczenia, które zostały bardzo źle przyjęte przez społeczność naukową
Kilku członków społeczności badawczej AI również szybko wypowiedziało się przeciwko Blake’owi Lemoine’owi. Margaret Mitchell, która została zwolniona z Google po tym, jak otwarcie mówiła o braku różnorodności w firmie, napisała na Twitterze, że systemy takie jak LaMDA nie rozwijają intencji, ale „replikują sposób, w jaki ludzie wyrażają intencje komunikacyjne w formie tekstów. Ze znacznie mniejszym taktem Gary Marcy zakwalifikował wypowiedzi Blake’a Lemoine jako „bzdury w barze”.
Oświadczenie Google dla Engadget brzmi: „Zgodnie z naszymi zasadami dotyczącymi sztucznej inteligencji bardzo poważnie traktujemy rozwój sztucznej inteligencji i jesteśmy zaangażowani w odpowiedzialne innowacje. LaMDA przeszło 11 różnych szczegółowych recenzji, a kilka miesięcy temu opublikowaliśmy artykuł szczegółowo opisujący prace nad tym krytycznym rozwojem. Jeśli pracownik ma obawy dotyczące naszej pracy, tak jak Blake Lemoine, mądrze się do niego zwracamy. Doszliśmy do wniosku, że twierdzenia Blake’a Lemoine’a o świadomości LaMDA są całkowicie bezpodstawne i pracowaliśmy z nim, aby to rozgryźć przez kilka miesięcy. Dyskusje te odbywały się w ramach naszej otwartej kultury, która pomaga nam odpowiedzialnie wprowadzać innowacje. Niestety, pomimo dyskusji na ten temat, Blake Lemoine postanowił naruszyć obowiązujące w firmie zasady, w tym konieczność ochrony informacji o produkcie.
Dodaj komentarz