テクノロジーリーダーと専門家がAI実験の6か月休止を呼び掛ける
テクノロジーリーダーや専門家らは、AIの実験を6か月間休止するよう求めている。彼らは、この地域での(あまりにも)騒々しい出来事と、周囲の安全の欠如を懸念しています。
テクノロジーリーダーやその他の著名なAI研究者が署名した公開書簡は、AI研究所や企業に対し、その研究を「直ちに中止」するよう求めている。スティーブ・ウォズニアック氏やイーロン・マスク氏を含む署名者らは、既存のAIシステムを活用し、人々が順応して全員に利益をもたらすことを保証するために、GPT-4ベースのテクノロジーの開発を少なくとも6カ月休止したいと考えている。この書簡では、AI システムを保護するには思考と先見の明が不可欠であると付け加えています。
テクノロジーリーダーと専門家がAI実験の6か月休止を呼び掛ける
GPT-4(書面または視覚メッセージにテキストで応答できる OpenAI モデル)への言及は、企業がすでにこのテクノロジーを使用して高度なチャット システムを開発しようとしている中で行われています。たとえば、Microsoft は最近、GPT-4 モデルを活用するために Bing 検索エンジンを再設計したことを認めました。Google も最近、LaMDA に基づく独自の生成人工知能システムである Bard を立ち上げました。この問題は長い間存在していましたが、今日のレーステクノロジー企業はさらに憂慮すべき問題のようです。
「残念ながら、このレベルの計画と管理は存在しません。AI ラボは、誰も (作成者ですら) 理解、予測、制御できない仮想頭脳の開発と展開に懸命に取り組んでいます。安心』をスペシャルで読めるでしょうか。
彼らは、この地域の(あまりにも)急速な発展と周囲の治安の悪さを懸念しています。
この書簡は、新しいテクノロジーのリスクと誤用の軽減に取り組む組織である Future of Life Institute (FLI) によって発行されました。以前、イーロン・マスク氏はAIの安全性を研究するためにFLIに1000万ドルを寄付した。スティーブ・ウォズニアック氏と後者のほかに、AI・デジタル政策センター所長のマーク・ローゼンバーグ氏、MITの物理学者でFLI所長のマックス・テグマーク氏、作家のユヴァル・ノア・ハラリ氏など、AI分野の著名人がいる。後者は先週、Center for Humane Technologyの創設者や他の署名者のトリスタン・ハリス氏とアザ・ラスキン氏とともに、AIがもたらすリスクについてニューヨーク・タイムズ紙に論説を寄稿した。
この呼びかけは、700人以上の機械学習研究者を対象とした2022年の調査に対する論理的なフォローアップのような気がする。調査では、参加者のほぼ半数が、人類が滅亡するまでAIの影響が「非常に悪い」可能性が10パーセントあると回答した。AI 研究の安全性について尋ねたところ、68% の研究者が、さらに多くのことを行う必要があると回答しました。
コメントを残す