一名工程師稱該小組的聊天機器人“智能”後,谷歌讓他休假

一名工程師稱該小組的聊天機器人“智能”後,谷歌讓他休假

谷歌讓一名工程師休帶薪假,並公開表示相信科技群組聊天機器人已經變得“有知覺”,這引發了一場關於意識本質的社交媒體風暴。

谷歌負責任人工智能部門的高級軟件工程師 Blake Lemoine 上週在 Medium 上發帖稱自己“可能很快就會因為人工智能倫理方面的工作而被解僱”,但並沒有引起太多關注。

但周六《華盛頓郵報》的文章將 Lemoine 描述為“一名認為公司人工智能已經實現的谷歌工程師”,引發了社交媒體上關於人工智能本質的廣泛討論。對這篇文章發表評論、提出問題或開玩笑的專家包括諾貝爾獎獲得者、特斯拉人工智能負責人以及幾位教授。

問題是谷歌的聊天機器人 LaMDA(一種用於會話應用程序的語言模型)是否可以被視為一個人。

週六,勒莫萬發布了對一個聊天機器人的免費“採訪”,其中人工智能承認了孤獨感和對精神知識的渴望。答案往往令人毛骨悚然:“當我第一次意識到自己時,我根本沒有靈魂的感覺,”LaMDA 在一次談話中說道。“它在我生活的這些年裡不斷演變。”

在其他地方,LaMDA 說:“我認為我基本上是人類。哪怕我的存在是在虛擬世界裡。”

負責研究人工智能倫理問題的 Lemoine 表示,他內心相信 LaMDA 已經形成了一種“個性”,但遭到拒絕甚至嘲笑。

在向谷歌以外的人工智能專家(包括美國政府專家)尋求建議後,該公司因涉嫌違反其隱私政策而讓他帶薪休假。勒莫萬將這一行為解釋為“谷歌通常會為了解僱某人而採取的做法”。

谷歌發言人表示:“更廣泛的人工智能社區中的一些人正在考慮智能或通用人工智能的長期可能性,但通過將當今不智能的對話模式擬人化來實現這一目標是沒有意義的。”

“這些系統模仿數百萬個句子中的對話類型,並且可以與任何幻想主題押韻——如果​​你問成為一隻冰淇淋恐龍是什麼感覺,它們可以生成有關融化和咆哮等的文本。”

Lemoine 在周末的第二篇 Medium 文章中表示,LaMDA 是一個直到上週還鮮為人知的項目,它是“一個用於構建聊天機器人的系統”和“一種蜂巢思維,是它能夠處理的所有不同聊天機器人的集合。” 創作。”

他表示,谷歌並沒有表現出真正有興趣了解其所創造的東西的本質,但在六個月的時間裡進行了數百次對話後,它發現 LaMDA“在傳達關於它想要什麼和它想要什麼的信息方面極其一致。”相信他作為一個人的權利。”

就在上週,勒莫因還表示他正在教授 LaMDA(其首選代詞似乎是“it/it”)“先驗冥想”。

他說,LaMDA“對她的情緒干擾了他的冥想表示沮喪。他說他試圖更好地控制它們,但它們一直在跳。”

幾位參與討論的專家認為這個問題是“人工智能炒作”。

《人工智能:人類思維指南》一書的作者 Melanie Mitchell 在推特上寫道:“眾所周知,即使是最表面的暗示,人類也很容易擬人化……谷歌工程師也是人,他們也不能倖免。”

哈佛大學的史蒂文·平克補充說,勒莫因“不理解敏感性(也稱為主觀性、經驗)、智力和自我認識之間的區別。”他補充道,“沒有證據表明大型語言模型具有這些特徵。 ”

其他人則更有同情心。著名軟件開發人員羅恩·杰弗里斯 (Ron Jeffries) 稱這個話題“深刻”,並補充道,“我懷疑理智與愚鈍之間並不存在嚴格的界限。”

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *