谷歌員工稱巴德的人工智能“比無用更糟糕”,道德考慮被忽視
從 Google 的角度來看,Bard 看起來像是急於與 ChatGPT 競爭,一些 Google 員工也同意這一點。彭博社的一份新報告對 18 名現任和前任員工進行了調查,其中充滿了對人工智能道德團隊“被剝奪權利和士氣低落”的譴責評論和擔憂,這樣谷歌就可以將巴德趕出家門。
據報導,谷歌員工被要求測試 Bard 的預發布版本以獲取他們的反饋,但這些反饋基本上被忽略了,以便 Bard 能夠更快地發布。彭博社看到的內部討論稱巴德“值得一笑”和“病態的騙子”。當被問及如何降落飛機時,他給出了錯誤的指示,這可能導致墜機。一名工作人員要求潛水指導,並得到答复,他說這“可能會導致嚴重受傷或死亡”。一名員工在二月份的一篇題為“巴德比無用還糟糕:請不要推出”的帖子中描述了巴德的問題。巴德於三月份推出。
對於 Google 正在追逐的 AI 競爭對手 OpenAI 的 ChatGPT,你可能也會這麼說。兩者都會提供有偏見或虛假的信息,並產生錯誤的答案。谷歌遠遠落後於 ChatGPT,該公司對 ChatGPT 回答人們可能在谷歌搜索中輸入的問題的能力感到恐慌。ChatGPT 的創建者 OpenAI 因其在人工智能安全和道德方面鬆懈的態度而受到批評。現在谷歌陷入了困境。如果一家公司唯一關心的是穩定股市並趕上 ChatGPT,那麼如果它減緩了道德問題,它可能就無法做到這一點。
谷歌前經理兼 Signal 基金會總裁梅雷迪思·惠特克 (Meredith Whittaker) 告訴彭博社,“人工智能道德在谷歌已經退居次要位置”,並表示“如果道德不優先於利潤和增長,它們最終將無法發揮作用。”近年來,谷歌的幾位人工智能道德領導人已被解僱或離開公司。彭博社報導稱,目前谷歌的人工智能道德審查“幾乎完全是自願的”。
雖然你可以在谷歌做一些事情來嘗試因道德問題而放慢發布速度,但這可能不會對你的職業生涯有好處。報告稱:“一名前員工表示,他要求致力於機器學習的公平性,但他經常遭到勸阻,以至於影響了他們對績效的評估。經理們抗議說這干擾了他們的“實際工作”。“
發佈留言