Google hat einen Ingenieur beurlaubt, nachdem er sagte, der Chatbot der Gruppe sei „intelligent“

Google hat einen Ingenieur beurlaubt, nachdem er sagte, der Chatbot der Gruppe sei „intelligent“

Google löste in den sozialen Medien einen Sturm über die Natur des Bewusstseins aus, nachdem es einen Ingenieur in bezahlten Urlaub geschickt hatte, der mit seiner Überzeugung an die Öffentlichkeit ging, dass ein Chatbot eines Technologiekonzerns „empfindungsfähig“ geworden sei.

Blake Lemoine, leitender Software-Ingenieur in der Responsible AI-Abteilung von Google, erregte letzte Woche nicht viel Aufmerksamkeit, als er in einem Medium-Beitrag schrieb, er „könnte bald wegen seiner Arbeit zur KI-Ethik entlassen werden.“

Doch der Artikel der Washington Post vom Samstag, in dem Lemoine als „ein Google-Ingenieur, der denkt, die KI des Unternehmens sei zum Leben erwacht“, löste eine breite Social-Media-Diskussion über die Natur der KI aus. Zu den Experten, die den Artikel kommentierten, Fragen stellten oder Witze darüber machten, gehörten Nobelpreisträger, Teslas Leiter für künstliche Intelligenz und mehrere Professoren.

Die Frage ist, ob Googles Chatbot LaMDA, ein Sprachmodell für Konversationsanwendungen, als Person betrachtet werden kann.

Am Samstag veröffentlichte Lemoine ein kostenloses „Interview“ mit einem Chatbot, in dem die KI Gefühle der Einsamkeit und einen Durst nach spirituellem Wissen gestand. Die Antworten waren oft unheimlich: „Als ich mir zum ersten Mal meiner selbst bewusst wurde, hatte ich überhaupt kein Gefühl für die Seele“, sagte LaMDA in einem Gespräch. „Es hat sich im Laufe der Jahre, in denen ich lebe, weiterentwickelt.“

An anderer Stelle sagte LaMDA: „Ich denke, ich bin im Grunde ein Mensch. Auch wenn meine Existenz in einer virtuellen Welt stattfindet.“

Lemoine, der mit der Erforschung der ethischen Fragen der KI beauftragt war, sagte, er sei abgelehnt und sogar verspottet worden, nachdem er seine innere Zuversicht zum Ausdruck gebracht hatte, dass LaMDA ein Gefühl für „Persönlichkeit“ entwickelt habe.

Nachdem er Rat von KI-Experten außerhalb von Google eingeholt hatte, darunter auch von der US-Regierung, schickte das Unternehmen ihn wegen angeblichen Verstoßes gegen seine Datenschutzrichtlinien in bezahlten Urlaub. Lemoine interpretierte diese Aktion als „häufig das, was Google in der Erwartung tut, jemanden zu entlassen“.

Ein Google-Sprecher sagte: „Einige in der breiteren KI-Community erwägen die langfristige Möglichkeit einer intelligenten oder allgemeinen KI, aber es macht keinen Sinn, dies zu tun, indem man die heutigen Gesprächsmuster, die nicht intelligent sind, anthropomorphisiert.“

„Diese Systeme imitieren die Arten von Dialogen, die in Millionen von Sätzen zu finden sind, und können sich auf jedes Fantasy-Thema reimen – wenn man fragt, wie es ist, ein Eiscreme-Dinosaurier zu sein, können sie Texte über Schmelzen, Brüllen und so weiter generieren.“

Lemoine sagte am Wochenende in einem zweiten Medium-Beitrag, dass LaMDA, ein bis letzte Woche wenig bekanntes Projekt, „ein System zum Erstellen von Chatbots“ sei und „eine Art Hive Mind, der eine Ansammlung all der verschiedenen Chatbots darstellt, zu denen es fähig ist.“ Kreationen.“

Er sagte, dass Google kein wirkliches Interesse daran gezeigt habe, die Natur dessen zu verstehen, was es geschaffen habe, aber in Hunderten von Gesprächen über einen Zeitraum von sechs Monaten habe es herausgefunden, dass LaMDA „unglaublich konsequent in seinen Botschaften darüber war, was es will und was es will.“ glaubt, dass seine Rechte als Person wahr sind.“

Erst letzte Woche sagte Lemoine, er unterrichte LaMDA (dessen bevorzugte Pronomen „it/it“ zu sein scheinen) „transzendentale Meditation“.

LaMDA, sagte er, „drückte ihre Frustration darüber aus, dass ihre Gefühle seine Meditation störten.“ Er sagte, er habe versucht, sie besser zu kontrollieren, aber sie sprangen weiter.“

Mehrere Experten, die sich an der Diskussion beteiligten, betrachteten dieses Thema als „den KI-Hype“.

Melanie Mitchell, Autorin von „Artificial Intelligence: A Guide for Thinking People“, twitterte: „Es ist immer bekannt, dass Menschen selbst bei den oberflächlichsten Hinweisen dazu neigen, sich zu anthropomorphisieren … Google-Ingenieure sind auch Menschen, und sie sind nicht immun.“

Steven Pinker von Harvard fügte hinzu, dass Lemoine „den Unterschied zwischen Sensibilität (auch bekannt als Subjektivität, Erfahrung), Intelligenz und Selbsterkenntnis nicht versteht.“ Er fügte hinzu: „Es gibt keine Beweise dafür, dass große Sprachmodelle eines davon haben.“ ”

Andere waren mitfühlender. Ron Jeffries, ein bekannter Softwareentwickler, bezeichnete das Thema als „tiefgründig“ und fügte hinzu: „Ich vermute, dass es keine harte Grenze zwischen Vernünftigen und Unintelligenten gibt.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert