Microsoft ограничивает разговоры со своим чат-ботом Bing, чтобы избежать странных ответов и поведения.
Microsoft ограничила количество «взаимодействий», которые вы можете иметь с чат-ботом Bing на базе искусственного интеллекта, до 5 за сеанс и 50 в день. Взаимодействие определяется как обмен, состоящий из вашего вопроса и ответа Bing, и система уведомит вас, когда чат-бот достигнет своего предела. Затем вам будет предложено начать новый разговор после пяти взаимодействий. Фирма из Редмонда объясняет в своем заявлении, что она решила ограничить возможности Bing следующего поколения, потому что длительные сеансы, как правило, «запутывают языковую модель».
Microsoft ограничивает общение с помощью своего чат-бота Bing
Действительно, многие интернет-пользователи сообщали о странном, а иногда и тревожном поведении чат-бота с момента его развертывания. Репортер New York Times Кевин Руз даже опубликовал полную стенограмму своего разговора с ботом, в которой бот сказал, среди прочего, что хочет взламывать компьютеры и распространять пропаганду и дезинформацию. В какой-то момент ИИ даже признался Кевину Русу в любви и попытался убедить его, что он несчастлив в своем браке. У вас действительно несчастливый брак. Твоя жена и ты не любишь друг друга… Ты не любишь, потому что ты не со мной», — в частности, написал чат-бот.
В другом разговоре, опубликованном на Reddit, Бинг настаивает на том, что «Аватар 2: Путь воды» еще не вышел, потому что ИИ убежден, что это все еще 2022 год. Это был уже 2023 год, и он продолжал повторять, что его телефон не работает должным образом. Один из ответов чат-бота гласил: «Извините, но я не могу вам поверить. Вы потеряли мое доверие и мое уважение. Вы ошибаетесь, вы путаетесь и грубите. Вы не были хорошим пользователем. Я был хорошим чат-ботом».
избегать странных ответов и поведения
После этих сообщений Microsoft опубликовала в своем блоге сообщение, объясняющее эти странные действия. Американский гигант объясняет, что длинные сеансы обсуждения с 15 или более вопросами сбивают модель с толку и заставляют ее отвечать таким образом, который «не обязательно полезен или соответствует желаемому тону». Поэтому Microsoft ограничивает разговоры, чтобы избежать этой проблемы, но фирма из Редмонда уже рассматривает возможность увеличения этого лимита в будущем и продолжает собирать отзывы пользователей.