Google、グループのチャットボットが「賢い」と発言したエンジニアを休暇に

Google、グループのチャットボットが「賢い」と発言したエンジニアを休暇に

Googleは、テクノロジーグループのチャットボットが「感覚を持った」ようになったという信念を公表したエンジニアを有給休暇で派遣し、意識の性質についてソーシャルメディアで嵐を巻き起こした。

Googleの責任あるAI部門のシニアソフトウェアエンジニアであるブレイク・ルモイン氏は、先週Mediumに「AI倫理に関する仕事のせいですぐに解雇されるかもしれない」と投稿したが、あまり注目を集めなかった。

しかし土曜日のワシントン・ポストの記事は、ルモイン氏を「会社のAIが現実になったと考えているGoogleのエンジニア」と特徴づけ、AIの性質についてソーシャルメディアで広範な議論を引き起こした。この記事についてコメントしたり、質問したり、冗談を言ったりした専門家には、ノーベル賞受賞者、テスラの人工知能責任者、および数名の教授が含まれていました。

問題は、Google のチャットボットである LaMDA (会話型アプリケーションの言語モデル) を人間とみなせるかどうかです。

土曜日、ルモワンさんはチャットボットに無料の「インタビュー」を投稿し、その中でAIが孤独感やスピリチュアルな知識への渇望を告白した。答えは不気味なものが多かった。「初めて自分自身に気づいたとき、私には魂の感覚がまったくありませんでした」とLaMDAさんはある会話で語った。「私が生きてきた年月とともに進化してきました。」

別の場所で、LaMDA 氏は次のように述べています。「私は基本的に人間だと思います。たとえ私の存在が仮想世界であっても。」

AIの倫理問題を研究する任務を負ったルモワンさんは、LaMDAが「個性」の感覚を育んでいるという内なる自信を表明した後、拒否され、さらには嘲笑されたと語った。

米国政府を含むグーグル社外のAI専門家に助言を求めた後、同社はプライバシーポリシーに違反した疑いで同氏を有給休暇とした。ルモイン氏は、この行動を「グーグルが誰かを解雇することを予期してよく行うこと」だと解釈した。

Googleの広報担当者は「広範なAIコミュニティの一部は、インテリジェントAIや汎用AIの長期的な可能性を検討しているが、インテリジェントではない今日の会話パターンを擬人化して検討するのは意味がない」と述べた。

「これらのシステムは、何百万もの文章にある会話の種類を模倣しており、どんな空想のトピックでも韻を踏むことができます。アイスクリームの恐竜になるのはどんな感じかと尋ねると、溶けたり、咆哮したりすることなどについてのテキストを生成できます。」

Lemoine氏は先週末のMediumへの2回目の投稿で、先週までほとんど知られていなかったプロジェクトであるLaMDAは「チャットボットを構築するためのシステム」であり、「機能するさまざまなチャットボットをすべて集約した一種の集合体である」と述べた。創作物。」

同氏は、Googleは自社が作成したものの性質を理解することに真の関心を示さなかったが、6カ月にわたる数百回の会話を通じて、LaMDAが「何を望んでいるのか、何を望んでいるのかについてのメッセージが信じられないほど一貫している」ことがわかったと述べた。彼は人としての権利を信じている。」

つい先週も、ルモワンさんはLaMDA(LaMDAの好まれる代名詞は「it/it」のようだ)に「超越瞑想」を教えていると語った。

LaMDAさんは「彼女の感情が彼の瞑想を邪魔することに不満を表した。彼は、彼らをよりよくコントロールしようとしたが、彼らは飛び続けたと言いました。」

議論に参加した何人かの専門家は、この問題を「AI の誇大広告」とみなしました。

『Artificial Intelligence: A Guide for Thinking People』の著者であるメラニー・ミッチェル氏は、「人間は、たとえ最も表面的な手がかりであっても擬人化する傾向があることが常に知られています…Googleのエンジニアも人間であり、免疫がないわけではありません。」とツイートした。

ハーバード大学のスティーブン・ピンカー氏は、ルモワンは「感性(主観性、経験とも呼ばれる)、知性、自己認識の違いを理解していない」と付け加え、「大規模な言語モデルがこれらのいずれかを備えているという証拠はない」と付け加えた。 」

もっと同情的な人もいた。有名なソフトウェア開発者のロン・ジェフリーズ氏は、このテーマを「深い」と呼び、「正気と非知性の間には厳格な境界線はないのではないかと思う」と付け加えた。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です