技術領袖和專家呼籲暫停人工智能實驗 6 個月

技術領袖和專家呼籲暫停人工智能實驗 6 個月

技術領袖和專家呼籲暫停人工智能實驗 6 個月。他們擔心該地區發生的(過於)動蕩的事件以及周圍缺乏安全保障。

這封由技術領袖和其他知名人工智能研究人員簽署的公開信呼籲人工智能實驗室和公司“立即暫停”他們的工作。包括史蒂夫·沃茲尼亞克 (Steve Wozniak) 和埃隆·馬斯克 (Elon Musk) 在內的簽署者希望從生產基於 GPT-4 的技術中休息至少六個月,以利用現有的人工智能係統,讓人們適應並確保它們能夠造福所有人。這封信補充說,思想和遠見對於保護人工智能係統至關重要。

技術領袖和專家呼籲暫停人工智能實驗 6 個月

GPT-4 是一種 OpenAI 模型,可以用文本響應書面或視覺消息,而公司已經在嘗試使用該技術開發複雜的聊天系統。例如,微軟最近證實,它已經重新設計了 Bing 搜索引擎,以利用 GPT-4 模型。谷歌最近推出了 Bard,這是自己基於 LaMDA 的生成人工智能係統。這個問題已經存在很長時間了,但如今科技公司所處的競爭局面似乎更加令人擔憂。

“不幸的是,這種級別的規劃和管理並不存在,人工智能實驗室正在努力開發和部署虛擬大腦,沒有人——甚至是它們的創造者——能夠以任何方式理解、預測或控制。安全”,我們可以在特別報導中讀到。

他們擔心該地區發展太快以及周圍的不安全狀況

這封信由生命未來研究所 (FLI) 發表,該組織致力於減少新技術的風險和濫用。此前,埃隆·馬斯克向 FLI 捐贈了 1000 萬美元,用於研究 AI 的安全性。除了史蒂夫·沃茲尼亞克和後者之外,人工智能領域還有人工智能和數字政策中心主席馬克·羅滕伯格、麻省理工學院物理學家兼 FLI 主席馬克斯·泰格馬克、作家尤瓦爾·諾亞·赫拉里等人工智能領域的大人物。後者上週還與人道技術中心創始人以及其他簽署者特里斯坦·哈里斯和阿扎·拉斯金一起撰寫了一篇關於人工智能帶來的風險的《紐約時報》專欄文章。

這一呼籲似乎是 2022 年對 700 多名機器學習研究人員進行的一項調查的合乎邏輯的後續行動,該調查發現,近一半的參與者表示,人工智能的後果有 10% 的可能性將“極其糟糕”,直到人類滅絕。當被問及人工智能研究的安全性時,68%的研究人員回答說需要做更多或更多的工作。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *