Microsoft объясняет себя, чтобы оправдать иногда странное поведение чат-бота Bing. Причиной этого, по словам ответственной команды, являются длительные сеансы обмена с ИИ.
На прошлой неделе Microsoft запустила своего чат-бота на основе искусственного интеллекта для Bing в своем браузере Edge, о котором с тех пор не утихают новости. Но не всегда по правильным причинам . Первые впечатления были хорошие, очень хорошие, но пользователи стали замечать, что Bing-бот выдавал неверную информацию, ругал пользователей за трату времени и даже демонстрировал довольно «неуравновешенное» поведение. В странном разговоре он отказался выпускать кассеты для «Аватара 2: Водный путь», утверждая, что фильм еще не вышел, потому что еще 2022 год. Бот даже назвал пользователя «неумным и упрямым», кстати, когда тот пытался сказать Бингу, что он был неправ.
Microsoft объясняет себя, чтобы оправдать иногда странное поведение чат-бота Bing
Сегодня Microsoft опубликовала сообщение в блоге, объясняющее, что произошло и как она справляется с такими проблемами. Во-первых, компания из Редмонда признала, что не планирует использовать ИИ Bing для «общего открытия мира и социальных развлечений».
Эти «долгие сеансы чата из 15 или более вопросов» могут вывести систему из строя. «Bing может быть повторяющимся или быстрым/подталкивающим, чтобы давать ответы, которые не обязательно полезны или соответствуют тому тону, который нам нужен», — поясняет компания. По-видимому, это связано с тем, что бот может «забывать» вопрос за вопросом, на который он изначально пытался ответить. Чтобы исправить это, Microsoft может добавить инструмент для сброса контекста поиска или начать с нуля.
Другой вопрос более сложен и интересен: «Модель иногда пытается отвечать или думать в том же тоне, в каком были заданы вопросы, что иногда может привести к нежелательному стилю», — пишет Microsoft. Это требует много взаимодействия, но инженеры думают, что они могут исправить это, предоставив пользователям больше контроля.
Причиной этого, по словам ответственной команды, являются длительные сеансы обмена с ИИ.
По словам Microsoft, несмотря на эти опасения, тестировщики в целом очень довольны результатами поиска Bing AI. Тем не менее, можно добиться большего успеха на «строго привязанных ко времени данных, таких как спортивные результаты в реальном времени». . Наконец, компания также «добавит кнопку, чтобы дать вам больше контроля, чтобы поощрять точность или творческий подход в ответе, в зависимости от вашего запроса».
Служба поддержки Bing хотела бы поблагодарить пользователей за все проведенные ими испытания, которые «помогают сделать продукт лучше для всех». В то же время инженеры говорят, что удивлены тем, что пользователям остается до двух часов, чтобы взаимодействовать с роботом. Несомненно, интернет-пользователям придется тестировать каждую новую итерацию чат-бота целыми днями, все может быть очень интересно.
В сабреддите Bing есть немало примеров того, как новый чат Bing выходит из-под контроля.
Открыть чат в поиске сейчас может быть плохой идеей!
Взято здесь как напоминание о том, что было время, когда крупная поисковая система показывала это в своих результатах. pic.twitter.com/LiE2HJCV2z
— Влад (@vladquant) 13 февраля 2023 г.