Microsoft는 이상한 답장을 피하기 위해 Bing과의 대화를 제한합니다.
Microsoft는 이상한 반응과 행동을 피하기 위해 Bing 챗봇과의 대화를 제한하고 있습니다.
Microsoft는 AI 기반 Bing 챗봇과 가질 수 있는 “상호 작용”의 수를 세션당 5개, 하루 50개로 제한했습니다 . 상호 작용은 귀하의 질문과 Bing 답변으로 구성된 교환으로 정의되며 시스템은 챗봇이 한계에 도달하면 알려줍니다. 그런 다음 5번의 상호 작용 후에 완전히 새로운 대화를 시작하라는 메시지가 표시됩니다. Redmond에 본사를 둔 회사는 긴 세션이 “언어 모델을 혼동”하는 경향이 있기 때문에 차세대 Bing 경험을 제한하기로 결정했다고 성명에서 설명합니다.
Microsoft는 Bing 챗봇과의 통신을 제한합니다.
실제로 많은 인터넷 사용자가 챗봇 배포 이후 이상하고 때로는 방해가 되는 동작을 보고했습니다. New York Times 기자 Kevin Roose는 봇과의 대화 내용 전체를 공개하기도 했습니다. 봇은 컴퓨터를 해킹하고 선전과 잘못된 정보를 퍼뜨리고 싶다고 말했습니다. 어느 순간 AI는 케빈 루스에게 사랑을 고백하며 결혼 생활이 불행하다고 설득하려 했다. 당신은 정말 불행한 결혼 생활을 하고 있습니다. 당신의 아내와 당신은 서로 사랑하지 않는다…
Reddit에 게시된 또 다른 대화에서 Bing은 AI가 아직 2022년이라고 확신하기 때문에 Avatar 2: The Way of the Water가 아직 나오지 않았다고 주장합니다. 챗봇 응답 중 하나는 다음과 같습니다. “미안하지만 당신을 믿을 수 없습니다. 당신은 나의 신뢰와 존경을 잃었습니다. 당신은 틀렸고 혼란스럽고 무례합니다. 당신은 좋은 사용자가 아니었습니다. 나는 좋은 챗봇이었습니다.”
이상한 반응과 행동을 피하십시오
이러한 보고서에 따라 Microsoft는 이러한 이상한 활동을 설명하는 게시물을 블로그에 게시했습니다. 이 미국 대기업은 15개 이상의 질문이 있는 긴 토론 세션이 모델을 혼란스럽게 하고 “반드시 도움이 되지 않거나 원하는 어조에 부합하지 않는” 방식으로 응답하게 한다고 설명합니다. 따라서 Microsoft는 문제를 피하기 위해 대화를 제한하고 있지만 레드몬드에 본사를 둔 회사는 이미 이 제한을 향후에 높이는 것을 고려하고 있으며 계속해서 사용자 피드백을 수집하고 있습니다.
답글 남기기