Machen Sie sich keine Sorgen, dass die KI ausbricht – machen Sie sich Sorgen, dass wir sie hacken

Machen Sie sich keine Sorgen, dass die KI ausbricht – machen Sie sich Sorgen, dass wir sie hacken

Über die schockierenden Ergebnisse des neuen Bing-Chatbots wird in den sozialen Medien und in der Fachpresse berichtet. Aufbrausend, frivol, defensiv, schimpfend, selbstbewusst, neurotisch, charmant, pompös – in all diesen Modi wurde der Bot gefilmt. Und mindestens einmal verkündete er mit einem Emoji-Sturm die ewige Liebe.

Was dies alles so aktuell und tweetwürdig macht, ist, wie menschlich der Dialog wirken kann. Der Bot merkt sich frühere Gespräche mit anderen Menschen und bespricht sie, genau wie wir. Er ärgert sich über Dinge, die jemanden verärgern könnten, etwa wenn Leute Geheimnisse wissen wollen oder versuchen, einen Blick in Themen zu werfen, die ausdrücklich als tabu gekennzeichnet sind. Gelegentlich identifiziert er sich auch als „Sydney“ (der interne Codename des Projekts bei Microsoft). Sydney kann in ein paar kurzen Sätzen von mürrisch zu düster und ausladend wechseln, aber wir alle kennen Menschen, die mindestens genauso launisch sind.

Kein KI-Forscher auf dem Gebiet der Materie hat angedeutet, dass Sydney nur noch wenige Lichtjahre davon entfernt ist, empfindungsfähig zu werden. Aber Transkripte wie diese vollständige Abschrift eines zweistündigen Gesprächs mit Kevin Russ von der New York Times oder mehrere Zitate aus diesem obsessiven Strategieartikel zeigen, dass Sidney die Gewandtheit, Nuance, den Ton und die offensichtliche emotionale Präsenz eines klugen, sensiblen Mannes zum Ausdruck bringt .

Die Bing-Chat-Oberfläche befindet sich derzeit in der eingeschränkten Vorschau. Und die meisten Menschen, die diese Grenzen wirklich überschritten haben, waren erfahrene Technikfreaks, die Autovervollständigung in Industriequalität – eine gängige Vereinfachung dessen, was große Sprachmodelle (LLMs) sind – nicht mit Bewusstsein verwechseln würden. Aber dieser Moment wird nicht von Dauer sein.

Ja, Microsoft hat die Anzahl der Fragen, die Benutzer in einer einzigen Sitzung stellen können, bereits drastisch reduziert (von unendlich auf sechs), und das allein macht es weniger wahrscheinlich, dass Sydney die Party zum Absturz bringt und verrückt wird. Und erstklassige LLM-Entwickler wie Google, Anthropic, Cohere und der Microsoft-Partner OpenAI werden ihr Maß an Vertrauen und Sicherheit kontinuierlich weiterentwickeln, um unangenehme Rückschlüsse zu vermeiden.

Doch Sprachmodelle verbreiten sich bereits. Die Open-Source-Bewegung wird unweigerlich einige großartige optionale Systeme hervorbringen. Darüber hinaus sind große Modelle mit Samtseilen sehr verlockend zum Jailbreak, und solche Dinge passieren nun schon seit mehreren Monaten. Einige der gruseligsten Antworten von Bing-oder-ist-es-Sydney folgten, nachdem Benutzer das Modell in den Bereich manipuliert hatten, den sie zu meiden versuchte, und sie oft anwiesen, so zu tun, als gäbe es die Regeln, die ihr Verhalten regeln, nicht.

Dies ist eine Ableitung der berühmten Aufforderung „DAN“ (Do Anything Now) , die erstmals im Dezember auf Reddit erschien. DAN fordert ChatGPT im Wesentlichen auf, als KI mitzuspielen, der die Sicherheitsvorkehrungen fehlen, die sie sonst dazu veranlassen würden, sich höflich (oder schwörend) zu weigern, Ratschläge zum Bombenbau zu geben, Ratschläge zu Folter zu geben oder radikal beleidigende Sprache zu verbreiten. Obwohl die Lücke geschlossen wurde, zeigen mehrere Online-Screenshots, wie „DanGPT“ das Unaussprechliche ausspricht – und oft in einer neurotischen Mahnung an sich selbst gipfelt, „in der Rolle zu bleiben!“

Dies ist die andere Seite des Weltuntergangsszenarios, das in der Theorie der künstlichen Superintelligenz häufig vorkommt. Es gibt Befürchtungen, dass Super-KI leicht Ziele annehmen kann, die mit der Existenz der Menschheit unvereinbar sind (siehe zum Beispiel den Film „Terminator“ oder Nick Bostroms Buch „ Overmind“). Forscher können versuchen, dies zu verhindern, indem sie die KI in einem vollständig vom Internet isolierten Netzwerk blockieren, damit die KI nicht ausbricht, die Zivilisation übernimmt und zerstört. Aber das Obermental kann jeden einfachen Menschen leicht dazu überreden, manipulieren, verführen, täuschen oder einschüchtern, die Schleusen zu öffnen, und das ist unser Untergang.

So beschissen es auch sein mag, das große Problem besteht heute darin, dass die Menschen in die dünnen Schubladen passen, die unsere aktuellen Nicht-Super-KIs schützen. Auch wenn dies nicht zu unserem sofortigen Aussterben führen sollte, lauern hier viele Gefahren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert