Microsoft erklärt das seltsame Verhalten seines Chatbots in Bing

Microsoft erklärt das seltsame Verhalten seines Chatbots in Bing

Microsoft rechtfertigt damit selbst das teils seltsame Verhalten des Bing-Chatbots. Der Grund dafür sind nach Angaben des verantwortlichen Teams die langen Austauschsitzungen mit KI.

Letzte Woche hat Microsoft seinen KI-basierten Chatbot für Bing in seinem Edge-Browser eingeführt, der seitdem für Schlagzeilen sorgt. Aber nicht immer aus den richtigen Gründen . Der erste Eindruck war gut, sehr gut, aber den Benutzern fiel auf, dass der Bing-Bot falsche Informationen ausgab, Benutzer wegen Zeitverschwendung beschimpfte und sogar ein eher „unausgeglichenes“ Verhalten zeigte. In einem seltsamen Gespräch weigerte er sich, die Bänder zu „Avatar 2: Waterway“ zu veröffentlichen, und bestand darauf, dass der Film noch nicht herausgekommen sei, weil er noch im Jahr 2022 sei. Der Bot nannte den Benutzer übrigens sogar „unintelligent und stur“, als er versuchte Bing zu sagen, dass er falsch lag.

Microsoft rechtfertigt damit selbst das teils seltsame Verhalten des Bing-Chatbots

Microsoft hat heute einen Blogbeitrag veröffentlicht, in dem erklärt wird, was passiert ist und wie mit solchen Problemen umgegangen wird. Erstens gab das in Redmond ansässige Unternehmen zu, dass es nicht vorhabe, Bings KI für „allgemeine Weltentdeckungen und soziale Unterhaltung“ zu nutzen.

Diese „langen Chat-Sitzungen mit 15 oder mehr Fragen“ können das System zum Absturz bringen. „Bing kann sich wiederholend oder schnell/anstoßend sein, um Antworten zu geben, die nicht unbedingt hilfreich sind oder dem von uns gewünschten Ton entsprechen“, erklärt das Unternehmen. Dies liegt offenbar daran, dass der Bot eine Frage nach der anderen „vergessen“ kann, die er ursprünglich zu beantworten versuchte. Um dies zu beheben, fügt Microsoft möglicherweise ein Tool hinzu, um den Suchkontext zurückzusetzen oder von vorne zu beginnen.

Ein anderes Problem ist komplexer und interessanter: „Das Modell versucht manchmal, im gleichen Ton zu antworten oder zu denken, in dem die Fragen gestellt wurden, was manchmal zu einem unerwünschten Stil führen kann“, schreibt Microsoft. Dies erfordert viel Interaktion, aber die Ingenieure glauben, dass sie das Problem beheben können, indem sie den Benutzern mehr Kontrolle geben.

Der Grund dafür sind nach Angaben des verantwortlichen Teams die langen Austauschsitzungen mit KI.

Trotz dieser Bedenken sind die Tester laut Microsoft im Allgemeinen sehr zufrieden mit den KI-Suchergebnissen von Bing. Es sei jedoch möglich, bei „sehr zeitgebundenen Daten wie Echtzeit-Sportergebnissen“ bessere Ergebnisse zu erzielen. Der amerikanische Riese versucht auch, sachliche Antworten beispielsweise für Finanzberichte zu verbessern, indem er die Daten mit dem Faktor vier multipliziert . Schließlich wird das Unternehmen auch „eine Schaltfläche hinzufügen, die Ihnen mehr Kontrolle gibt, um je nach Ihrer Anfrage Genauigkeit oder Kreativität bei der Antwort zu fördern.“

Der Bing-Support bedankt sich bei den Benutzern für alle durchgeführten Tests, die „dazu beitragen, das Produkt für alle zu verbessern“. Gleichzeitig sind die Ingenieure überrascht, dass Benutzer bis zu zwei Stunden bleiben, um mit dem Roboter zu interagieren. Zweifellos müssen Internetnutzer den ganzen Tag jede neue Iteration des Chatbots testen, alles kann sehr interessant sein.

Der Bing-Subreddit enthält zahlreiche Beispiele dafür, wie der neue Bing-Chat außer Kontrolle gerät.

Jetzt den Chat in der Suche zu öffnen, könnte eine schlechte Idee sein!

Dies dient als Erinnerung daran, dass es eine Zeit gab, in der eine große Suchmaschine dies in ihren Ergebnissen anzeigte. pic.twitter.com/LiE2HJCV2z

– Vlad (@vladquant) 13. Februar 2023

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert