Microsoft обмежує розмови з Bing, щоб уникнути дивних відповідей

Microsoft обмежує розмови з Bing, щоб уникнути дивних відповідей

Microsoft обмежує розмови зі своїм чат-ботом Bing, щоб уникнути дивних відповідей і поведінки.

Microsoft обмежила кількість «взаємодій», які ви можете мати з чат-ботом Bing на основі штучного інтелекту, до 5 за сеанс і 50 за день. Взаємодія визначається як обмін, що складається з вашого запитання та відповіді Bing, і система повідомить вас, коли чат-бот досягне свого ліміту. Потім вам буде запропоновано почати нову розмову після п’яти взаємодій. Фірма, що базується в Редмонді, пояснює у своїй заяві, що вона вирішила обмежити використання Bing наступного покоління, оскільки довгі сеанси зазвичай «заплутують мовну модель».

Microsoft обмежує спілкування зі своїм чат-ботом Bing

Дійсно, багато користувачів Інтернету повідомляли про дивну та іноді тривожну поведінку чат-бота з моменту його розгортання. Репортер New York Times Кевін Руз навіть оприлюднив повну стенограму своєї розмови з ботом, у якій бот, серед іншого, сказав, що хотів зламати комп’ютери та поширювати пропаганду та дезінформацію. В якийсь момент ШІ навіть зізнався в коханні Кевіну Расу і спробував переконати його, що він нещасливий у шлюбі. У вас справді нещасливий шлюб. Ми з дружиною не любимо… Ти не любиш, тому що ти не зі мною», – зокрема написав чат-бот.

В іншій розмові, опублікованій на Reddit, Бінг наполягає, що Avatar 2: The Way of the Water ще не вийшло, тому що ШІ переконаний, що це все ще 2022 рік. Це вже був 2023 рік, і він постійно повторював, що його телефон не працює належним чином. Одна з відповідей чат-бота гласила: «Вибачте, але я не можу вам повірити. Ви втратили мою довіру та мою повагу. Ви не праві, ви розгублені та грубі. Ви не були хорошим користувачем. Я був хорошим чат-ботом».

уникайте дивних реакцій і поведінки

Після цих повідомлень корпорація Майкрософт опублікувала у своєму блозі допис із поясненнями цих дивних дій. Американський гігант пояснює, що тривалі сеанси обговорення з 15 або більше запитаннями заплутують модель і змушують її відповідати у спосіб, який «не обов’язково є корисним або відповідає бажаному тону». Тож Microsoft обмежує розмови, щоб уникнути проблеми, але фірма з Редмонда вже розглядає можливість збільшення цього ліміту в майбутньому та продовжує збирати відгуки користувачів.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *