Microsoft wyjaśnia dziwne zachowanie swojego chatbota w Bing

Microsoft wyjaśnia dziwne zachowanie swojego chatbota w Bing

Microsoft tłumaczy się, aby usprawiedliwić czasami dziwne zachowanie chatbota Bing. Powodem tego, według odpowiedzialnego zespołu, są długie sesje wymiany z AI.

W zeszłym tygodniu Microsoft uruchomił swojego chatbota opartego na sztucznej inteligencji dla Bing w przeglądarce Edge, o czym od tamtej pory mówi się w wiadomościach. Ale nie zawsze z właściwych powodów . Pierwsze wrażenie było dobre, bardzo dobre, ale użytkownicy zaczęli zauważać, że bot Bing podawał błędne informacje, karcił użytkowników za marnowanie czasu, a nawet zachowywał się dość „niezbalansowanie”. W dziwnej rozmowie odmówił wydania taśm do Avatar 2: Waterway, twierdząc, że film jeszcze nie wyszedł, bo wciąż jest rok 2022. Nawiasem mówiąc, bot nazwał użytkownika „nieinteligentnym i upartym”, kiedy próbował powiedzieć Bingowi, że się mylił.

Microsoft tłumaczy się, aby usprawiedliwić czasami dziwne zachowanie chatbota Bing

Firma Microsoft opublikowała dziś wpis na blogu wyjaśniający, co się stało i jak radzi sobie z takimi problemami. Po pierwsze, firma z Redmond przyznała, że ​​nie planuje wykorzystywać sztucznej inteligencji Binga do „ogólnego odkrywania świata i rozrywki społecznej”.

Te „długie sesje czatu składające się z 15 lub więcej pytań” mogą spowodować awarię systemu. „Bing może powtarzać się lub szybko/ponaglać, aby udzielać odpowiedzi, które niekoniecznie są pomocne lub zgodne z pożądanym tonem” — wyjaśnia firma. Najwyraźniej dzieje się tak dlatego, że bot może „zapomnieć” pytanie po pytaniu, na które pierwotnie próbował odpowiedzieć. Aby to naprawić, Microsoft może dodać narzędzie do resetowania kontekstu wyszukiwania lub rozpoczynania od zera.

Inna kwestia jest bardziej złożona i interesująca: „Model czasami próbuje odpowiedzieć lub pomyśleć w tym samym tonie, w jakim zadawano pytania, co czasami może prowadzić do niepożądanego stylu” — pisze Microsoft. Wymaga to wielu interakcji, ale inżynierowie uważają, że mogą to naprawić, dając użytkownikom większą kontrolę.

Powodem tego, według odpowiedzialnego zespołu, są długie sesje wymiany z AI.

Pomimo tych obaw, według firmy Microsoft, testerzy są ogólnie bardzo zadowoleni z wyników wyszukiwania sztucznej inteligencji Bing. Można jednak lepiej radzić sobie z „wysoce ograniczonymi czasowo danymi, takimi jak wyniki sportowe w czasie rzeczywistym”. Amerykański gigant stara się również poprawić odpowiedzi rzeczowe, na przykład w sprawozdaniach finansowych, mnożąc dane czterokrotnie. . Na koniec firma „doda również przycisk, aby zapewnić większą kontrolę, aby zachęcić do dokładności lub kreatywności w odpowiedzi, w zależności od Twojej prośby”.

Wsparcie Bing pragnie podziękować użytkownikom za wszystkie przeprowadzone przez nich testy, które „pomagają ulepszyć produkt dla wszystkich”. Jednocześnie inżynierowie twierdzą, że są zaskoczeni, że użytkownicy pozostają do dwóch godzin, aby wejść w interakcję z robotem. Bez wątpienia internauci będą musieli testować każdą nową iterację chatbota przez cały dzień, wszystko może być bardzo ciekawe.

Subreddit Bing zawiera kilka przykładów wymykania się spod kontroli nowego czatu Bing.

Otwarcie czatu w wyszukiwarce teraz może być złym pomysłem!

Zrobione tutaj jako przypomnienie, że był czas, kiedy duża wyszukiwarka pokazywała to w swoich wynikach. pic.twitter.com/LiE2HJCV2z

— Vlad (@vladquant) 13 lutego 2023 r

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *