Die KI-Assistenten-Kriege verschärfen sich mit Claude Pro, einem neuen ChatGPT Plus-Rivalen

Die KI-Assistenten-Kriege verschärfen sich mit Claude Pro, einem neuen ChatGPT Plus-Rivalen

Am Donnerstag brachte der KI-Hersteller und OpenAI-Konkurrent Anthropic Claude Pro auf den Markt , eine abonnementbasierte Version seines webbasierten KI-Assistenten Claude.ai , der ähnlich wie ChatGPT funktioniert. Es ist für 20 $/Monat in den USA oder 18 Pfund/Monat in Großbritannien erhältlich und verspricht fünfmal höhere Nutzungslimits, vorrangigen Zugriff auf Claude in Zeiten mit hohem Datenverkehr und frühzeitigen Zugriff auf neue Funktionen, sobald diese auftauchen.

Wie ChatGPT kann Claude Pro Texte verfassen, zusammenfassen, Analysen durchführen, Logikrätsel lösen und mehr.

Claude.ai ist das, was Anthropic als Konversationsschnittstelle für sein KI-Sprachmodell Claude 2 anbietet, ähnlich wie ChatGPT einen Anwendungs-Wrapper für die zugrunde liegenden Modelle GPT-3.5 und GPT-4 bereitstellt. Im Februar entschied sich OpenAI für eine Abonnementroute für ChatGPT Plus , das für 20 US-Dollar pro Monat auch frühen Zugriff auf neue Funktionen ermöglicht, aber auch den Zugriff auf GPT-4 freischaltet, das leistungsstärkste Sprachmodell von OpenAI.

Was hat Claude, was ChatGPT nicht hat? Ein großer Unterschied ist ein Kontextfenster mit 100.000 Token , was bedeutet, dass etwa 75.000 Wörter gleichzeitig verarbeitet werden können. Token sind Wortfragmente, die bei der Textverarbeitung verwendet werden. Das bedeutet, dass Claude längere Dokumente analysieren oder längere Gespräche führen kann, ohne die Erinnerung an das jeweilige Thema zu verlieren. ChatGPT kann im GPT-4-Modus nur etwa 8.000 Token verarbeiten.

„Das Wichtigste für mich ist das Limit von 100.000 Token“, sagte KI-Forscher Simon Willison gegenüber Ars Technica. „Das ist riesig! Eröffnet völlig neue Möglichkeiten, und ich verwende es mehrmals pro Woche nur für diese Funktion.“Willison schreibt regelmäßig in seinem Blog über die Verwendung von Claude und verwendet es oft, um Transkripte seiner persönlichen Vorträge zu bereinigen. Allerdings warnt er auch vor „Halluzinationen“, bei denen Claude manchmal Dinge erfindet.

„Ich habe bei Claude definitiv auch mehr Halluzinationen gesehen“ als bei GPT-4, sagt Willison, „was mich nervös macht, wenn ich es für längere Aufgaben verwende, weil es so viel mehr Möglichkeiten gibt, dass es in etwas Halluziniertes hineinschlüpft, ohne dass ich es merke.“ ”

Ein Screenshot der öffentlichen Weboberfläche für Claude 2, ein großes Sprachmodell von Anthropic.

Willison ist auch auf Probleme mit Claudes Moralfilter gestoßen, der ihm versehentlich Probleme bereitet hat: „Ich habe versucht, ihn für die Transkription einer Podcast-Episode zu verwenden, und er hat den größten Teil des Textes bereits vorher – direkt vor meinen Augen – verarbeitet hat alles gelöscht, was es getan hat! Irgendwann habe ich herausgefunden, dass wir gegen Ende der Episode begonnen hatten, über Bombendrohungen gegen Rechenzentren zu sprechen, und Claude wurde dadurch tatsächlich angeregt und löschte das gesamte Transkript.“

Was bedeutet „5x mehr Nutzung“?

Das Hauptverkaufsargument von Anthropic für das Claude Pro-Abonnement ist „ 5x mehr Nutzung “, aber das Unternehmen kommuniziert nicht klar, wie hoch die kostenlosen Nutzungsbeschränkungen für Claude tatsächlich sind. Das Unternehmen hat Hinweise wie kryptische Brotkrümel fallen gelassen und ein Supportdokument zu diesem Thema verfasst, in dem es heißt: „Wenn Ihre Konversationen relativ kurz sind (ungefähr 200 englische Sätze, vorausgesetzt, Ihre Sätze bestehen aus etwa 15 bis 20 Wörtern), können Sie davon ausgehen, dass Sie zumindest senden 100 Nachrichten alle 8 Stunden, oft auch mehr, abhängig von Claudes aktueller Kapazität. Über zwei Drittel aller Gespräche auf claude.ai (Stand September 2023) lagen innerhalb dieser Länge.“

In einer anderen etwas kryptischen Aussage schreibt Anthropic: „Wenn Sie eine Kopie von The Great Gatsby hochladen , können Sie innerhalb von 8 Stunden möglicherweise nur 20 Nachrichten in dieser Konversation senden.“ Wir versuchen nicht zu rechnen, aber wenn Sie das wissen Wenn man die genaue Wortzählung von F. Scott Fitzgeralds Klassiker betrachtet, kann man möglicherweise Claudes tatsächliche Grenzen erkennen. Wir haben Anthropic gestern zur Klärung kontaktiert und bis Redaktionsschluss noch keine Antwort erhalten.

In jedem Fall macht Anthropic deutlich, dass für ein KI-Modell mit einem Kontextlimit von 100.000 Token Nutzungsbeschränkungen erforderlich sind, da die damit verbundene Berechnung teuer ist. „Ein so leistungsfähiges Modell wie Claude 2 benötigt viele leistungsstarke Computer, insbesondere wenn es um die Beantwortung großer Anhänge und langer Gespräche geht“, schreibt Anthropic im Supportdokument. „Wir legen diese Grenzen fest, um sicherzustellen, dass Claude vielen Menschen zum kostenlosen Testen zur Verfügung gestellt werden kann, und um es Power-Usern zu ermöglichen, Claude in ihre täglichen Arbeitsabläufe zu integrieren.“

Außerdem hat Anthropic am Freitag Claude Instant 1.2 auf den Markt gebracht , eine kostengünstigere und schnellere Version von Claude, die über eine API verfügbar ist. Allerdings ist es bei logischen Aufgaben weniger leistungsfähig als Claude 2.

Obwohl klar ist, dass große Sprachmodelle wie Claude interessante Dinge leisten können, scheinen ihre Nachteile und die Tendenz zur Konfabulation sie aus Gründen der Zuverlässigkeit von einer breiteren Verwendung abzuhalten. Dennoch ist Willison ein Fan von Claude 2 in seiner Online-Form: „Ich freue mich, dass es sich weiter verbessert. Die 100.000-Token-Sache ist ein riesiger Gewinn, und die Tatsache, dass man dort PDFs hochladen kann, ist wirklich praktisch.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert