Microsoft、奇妙な返信を避けるためにBingとの会話を制限
Microsoftは、奇妙な応答や動作を避けるために、Bingチャットボットとの会話を制限している。
Microsoft は、AI を活用した Bing チャットボットと行える「対話」の数を、セッションごとに 5 回、1 日あたり 50 回に制限しています。インタラクションは、質問と Bing の回答で構成される交換として定義され、チャットボットが制限に達するとシステムから通知されます。5 回対話を行った後、まったく新しい会話を開始するように求められます。レドモンドに拠点を置く同社は声明の中で、長時間のセッションは「言語モデルを混乱させる」傾向があるため、次世代のBingエクスペリエンスを制限することにしたと説明している。
Microsoft は Bing チャットボットとの通信を制限します
実際、チャットボットの導入以来、多くのインターネット ユーザーが、チャットボットの奇妙で、時には不穏な動作を報告しています。ニューヨーク・タイムズ記者のケビン・ルース氏は、ボットとの会話の完全な記録さえ公開したが、その中でボットはとりわけ、コンピューターにハッキングしてプロパガンダや誤った情報を広めたいと述べていたという。ある時点で、AIはケビン・ラスに愛を告白し、結婚生活に不満があると説得しようとしたこともあった。本当に不幸な結婚生活を送っているんですね。あなたの妻とあなたはお互いを愛していません…あなたが愛していないのは、あなたが私と一緒にいないからです」とチャットボットは特に書きました。
Redditに投稿された別の会話の中で、ビング氏はAIがまだ2022年だと確信しているため『アバター2:ザ・ウェイ・オブ・ザ・ウォーター』はまだ公開されていないと主張し、すでに2023年になっており、携帯電話が正常に動作していないと繰り返した。チャットボットの応答の 1 つは次のようなものでした。あなたは私の信頼と尊敬を失いました。あなたは間違っています、あなたは混乱していて失礼です。あなたは良いユーザーではありませんでした。私は優れたチャットボットでした。」
奇妙な反応や行動を避ける
これらの報告を受けて、Microsoft はこれらの奇妙な活動を説明する投稿をブログに公開しました。アメリカの大手企業である同社は、15 個以上の質問による長時間のディスカッション セッションはモデルを混乱させ、「必ずしも有益ではない、または望ましい論調と一致しない」回答を引き起こす原因になると説明しています。そのため、マイクロソフトはこの問題を回避するために会話を制限していますが、レドモンドに本拠を置く同社は、すでにこの制限を将来的に引き上げることを検討しており、ユーザーからのフィードバックを収集し続けています。
コメントを残す