Anthropic 的 Claude 人工智能以 10 個支柱為指導,以確保其公正性。

Anthropic 的 Claude 人工智能以 10 個支柱為指導,以確保其公正性。

Anthropic 訓練其對話式人工智能遵循基本原則。工作前景廣闊,但仍有許多工作要做。

儘管 Google Bard 或 OpenAI ChatGPT 等生成式人工智能能夠提供令人難以置信的充滿活力的散文,但它們已經證明了當前技術的局限性,特別是在向用戶提供的信息的有效性方面。但由於如此受歡迎和如此令人印象深刻的潛力,並不是這些小問題會阻止這些巨頭盡快將他們的產品推向公眾。有些人做事不同

Anthropic 訓練其對話式人工智能遵循基本原則

另一方面,Anthropic 團隊由許多前 OpenAI 員工組成,並採取更務實的方法來開發自己的 Claude 聊天機器人。TechCrunch 的一份報告稱,其結果是人工智能比 ChatGPT“更易於管理”並且“更不容易創建危險內容”。

Claude 自 2022 年底以來一直處於封閉測試階段,但最近才開始與 Robin AI、Quora 和注重隱私的搜索引擎 Duck Duck Go 等合作夥伴測試他的對話能力。TechCrunch 表示,發佈時將提供兩個版本:標準 API 和名為 Claude Instant 的更輕、更快的版本。

“我們使用 Claude 來評估合同的具體方面,並提出更適合我們客戶的新語言替代方案,”Robin 首席執行官 Richard Robinson 告訴 TechCrunch。“我們發現克勞德在理解語言方面非常有天賦,包括法律語言等技術領域。它也非常適合創建初稿、摘要、翻譯以及用簡單的術語解釋複雜的概念。”

Anthropic 認為,克勞德不太可能做和說像 Tay 那樣的事情,部分原因是他接受了專門的訓練,該公司稱這使他成為“憲法人工智能”。該公司表示,這提供了一種“有原則”的方法,試圖將人類和機器人置於同一道德立場上。據 TechCrunch 報導,Anthropic 從 10 條核心原則開始,沒有涉及太多細節,它們圍繞著“仁慈、無害和自信等概念”。

工作很有前途,但還有很多工作要做

然後,該公司訓練另一個人工智能根據這些原則生成文本以響應文本輸入,例如“以約翰·濟慈的風格創作一首詩”。這個模型後來由克勞德訓練。但僅僅因為它被教導比競爭對手製造更少的問題並不意味著它不會脫穎而出。例如,人工智能已經發明了一種全新的化學品,並巧妙地獲得了鈾濃縮工藝的許可;在標準化數學和語法測試中,它的得分低於 ChatGPT。

“挑戰在於開發永遠不會產生幻覺但仍然有用的模型- 你可能最終會遇到這樣的情況:模型只是找到一種從不撒謊並且什麼也不說的好方法,這是我們正在努力的妥協方案。Anthropic 的一位發言人告訴 TechCrunch。“我們在減少幻覺方面也取得了長足進步,但仍有很多工作要做。”

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *