Microsoft는 Bing에서 챗봇의 이상한 동작을 설명합니다.

Microsoft는 Bing에서 챗봇의 이상한 동작을 설명합니다.

Microsoft는 Bing 챗봇의 이상한 행동을 정당화하기 위해 스스로를 설명합니다. 그 이유는 담당 팀에 따르면 AI와의 긴 교류 세션입니다.

지난 주 Microsoft는 Edge 브라우저에서 Bing용 AI 기반 챗봇을 출시했으며, 그 이후로 뉴스에 등장했습니다. 그러나 항상 올바른 이유가 있는 것은 아닙니다 . 첫인상은 좋았고 매우 좋았지 만 사용자는 Bing 봇이 잘못된 정보를 제공하고 시간을 낭비했다고 사용자를 꾸짖으며 다소 “균형이 맞지 않는”행동을 보이기 시작했습니다. 이상한 대화에서 그는 아직 2022년이기 때문에 영화가 아직 나오지 않았다고 주장하면서 Avatar 2: Waterway의 테이프 공개를 거부했습니다. Bing에게 그가 틀렸다고 말하려고 했습니다.

Microsoft는 Bing 챗봇의 이상한 행동을 정당화하기 위해 스스로를 설명합니다.

Microsoft는 오늘 어떤 일이 발생했으며 이러한 문제를 어떻게 처리하고 있는지 설명하는 블로그 게시물을 게시했습니다. 첫째, Redmond에 본사를 둔 이 회사는 “일반적인 세계 발견 및 소셜 엔터테인먼트”를 위해 Bing의 AI를 사용할 계획이 없다고 인정했습니다.

이러한 “15개 이상의 질문이 있는 긴 채팅 세션”은 시스템을 다운시킬 수 있습니다. “Bing은 반드시 도움이 되지 않거나 우리가 원하는 어조에 부합하지 않는 답변을 제공하기 위해 반복적이거나 빠르거나 넛지할 수 있습니다.”라고 회사는 설명합니다. 분명히 이것은 봇이 원래 대답하려고 했던 질문을 계속 “잊어버릴” 수 있기 때문입니다. 이 문제를 해결하기 위해 Microsoft는 검색 컨텍스트를 재설정하거나 처음부터 시작하는 도구를 추가할 수 있습니다.

또 다른 문제는 보다 복잡하고 흥미롭습니다. 이를 위해서는 많은 상호 작용이 필요하지만 엔지니어는 사용자에게 더 많은 제어 권한을 부여하여 문제를 해결할 수 있다고 생각합니다.

그 이유는 담당 팀에 따르면 AI와의 긴 교류 세션입니다.

이러한 우려에도 불구하고 테스터들은 일반적으로 검색에 대한 Bing의 AI 결과에 매우 만족한다고 Microsoft에 따르면 있습니다. 그러나 “실시간 스포츠 점수와 같이 시간에 얽매이지 않는 데이터”에서 더 잘할 수 있습니다. . 마지막으로 회사는 “귀하의 요청에 따라 응답의 정확성 또는 창의성을 장려하기 위해 더 많은 제어 기능을 제공하는 버튼을 추가”할 것입니다.

Bing 지원팀은 “모두를 위해 제품을 개선하는 데 도움이 되는” 모든 테스트에 대해 사용자에게 감사를 표하고 싶습니다. 동시에 엔지니어는 사용자가 로봇과 상호 작용하기 위해 최대 2시간을 머문다는 사실에 놀랐다고 말합니다. 의심할 여지 없이 인터넷 사용자는 챗봇의 새로운 반복을 하루 종일 테스트해야 하며 모든 것이 매우 흥미로울 수 있습니다.

Bing 하위 레딧에는 새로운 Bing 채팅이 통제 불능 상태가 된 몇 가지 예가 있습니다.

지금 검색에서 오픈 채팅하는 것은 나쁜 생각일 수 있습니다!

주요 검색 엔진이 결과에 이것을 표시한 시간이 있음을 상기시키기 위해 여기에서 가져왔습니다. pic.twitter.com/LiE2HJCV2z

— 블라드(@vladquant) 2023년 2월 13일

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다