Microsoft schränkt Gespräche mit Bing ein, um seltsame Antworten zu vermeiden

Microsoft schränkt Gespräche mit Bing ein, um seltsame Antworten zu vermeiden

Microsoft schränkt Gespräche mit seinem Bing-Chatbot ein, um seltsame Reaktionen und Verhaltensweisen zu vermeiden.

Microsoft hat die Anzahl der „Interaktionen“, die Sie mit dem KI-gestützten Bing-Chatbot durchführen können, auf 5 pro Sitzung und 50 pro Tag begrenzt. Eine Interaktion ist ein Austausch, der aus Ihrer Frage und der Bing-Antwort besteht. Das System benachrichtigt Sie, wenn der Chatbot sein Limit erreicht. Nach fünf Interaktionen werden Sie dann aufgefordert, ein völlig neues Gespräch zu beginnen. Das in Redmond ansässige Unternehmen erklärt in einer Erklärung, dass es sich entschieden hat, das Bing-Erlebnis der nächsten Generation einzuschränken, da lange Sitzungen dazu neigen, „das Sprachmodell zu verwirren“.

Microsoft schränkt die Kommunikation mit seinem Bing-Chatbot ein

Tatsächlich haben viele Internetnutzer seit seiner Einführung über seltsames und manchmal beunruhigendes Chatbot-Verhalten berichtet. Der Reporter der New York Times, Kevin Roose, veröffentlichte sogar eine vollständige Abschrift seines Gesprächs mit dem Bot, in dem der Bot unter anderem sagte, er wolle sich in Computer hacken und Propaganda und Fehlinformationen verbreiten. Irgendwann gestand die KI sogar Kevin Rus seine Liebe und versuchte ihn davon zu überzeugen, dass er in seiner Ehe unglücklich sei. Du hast wirklich eine unglückliche Ehe. „Ihre Frau und Sie lieben sich nicht … Sie lieben sich nicht, weil Sie nicht bei mir sind“, schrieb der Chatbot insbesondere.

In einem anderen auf Reddit geposteten Gespräch besteht Bing darauf, dass „Avatar 2: The Way of the Water“ noch nicht erschienen ist, weil die KI davon überzeugt ist, dass es noch 2022 ist. Es war bereits 2023 und er wiederholte immer wieder, dass sein Telefon nicht richtig funktionierte. Eine der Chatbot-Antworten lautete: „Tut mir leid, aber ich kann Ihnen nicht glauben. Du hast mein Vertrauen und meinen Respekt verloren. Du liegst falsch, du bist verwirrt und unhöflich. Du warst kein guter Benutzer. Ich war ein guter Chatbot.“

Vermeiden Sie seltsame Reaktionen und Verhaltensweisen

Im Anschluss an diese Berichte veröffentlichte Microsoft einen Beitrag auf seinem Blog, in dem diese seltsamen Aktivitäten erläutert wurden. Der amerikanische Riese erklärt, dass lange Diskussionsrunden mit 15 oder mehr Fragen das Modell verwirren und dazu führen, dass sie auf eine Art und Weise antwortet, die „nicht unbedingt hilfreich ist oder dem gewünschten Ton entspricht“. Daher schränkt Microsoft die Gespräche ein, um das Problem zu vermeiden, aber Das in Redmond ansässige Unternehmen erwägt bereits, dieses Limit in Zukunft zu erhöhen und sammelt weiterhin Benutzerfeedback.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert