Claudes KI von Anthropic wird von 10 Säulen geleitet, um ihre Unparteilichkeit zu gewährleisten.

Claudes KI von Anthropic wird von 10 Säulen geleitet, um ihre Unparteilichkeit zu gewährleisten.

Anthropic trainiert seine Konversations-KI so, dass sie grundlegenden Prinzipien folgt. Vielversprechende Arbeit, aber es bleibt noch viel zu tun.

Trotz ihrer Fähigkeit, unglaublich lebendige Prosa zu liefern, zeigen generative KIs wie Google Bard oder OpenAI ChatGPT bereits die Grenzen der aktuellen Technologie, insbesondere im Hinblick auf die Gültigkeit der den Benutzern angebotenen Informationen. Aber bei so großer Beliebtheit und so beeindruckendem Potenzial sind es nicht diese kleinen Probleme, die diese Giganten davon abhalten, ihre Produkte so schnell wie möglich der breiten Öffentlichkeit zugänglich zu machen. Manche machen die Dinge anders .

Anthropic trainiert seine Konversations-KI so, dass sie grundlegenden Prinzipien folgt

Andererseits besteht das Anthropic-Team aus vielen ehemaligen OpenAI-Mitarbeitern und verfolgt einen pragmatischeren Ansatz bei der Entwicklung eines eigenen Claude-Chatbots. Das Ergebnis ist eine KI, die laut einem TechCrunch-Bericht viel „überschaubarer“ und „viel weniger anfällig für die Erstellung gefährlicher Inhalte“ ist als ChatGPT.

Claude befindet sich seit Ende 2022 in der geschlossenen Betaphase, hat aber erst vor Kurzem damit begonnen, seine Konversationsfähigkeiten mit Partnern wie Robin AI, Quora und der datenschutzorientierten Suchmaschine Duck Duck Go zu testen. TechCrunch gab bekannt, dass zum Start zwei Versionen verfügbar sein werden: die Standard-API und eine leichtere, schnellere Version namens Claude Instant.

„Wir verwenden Claude, um bestimmte Aspekte eines Vertrags zu bewerten und neue Sprachalternativen zu entwickeln, die für unsere Kunden besser geeignet sind“, sagte Richard Robinson, CEO von Robin, gegenüber TechCrunch. „Wir haben festgestellt, dass Claude äußerst begabt darin ist, Sprache zu verstehen, auch in technischen Bereichen wie der juristischen Sprache. Es eignet sich auch sehr gut, um erste Entwürfe, Zusammenfassungen und Übersetzungen zu erstellen und komplexe Konzepte in einfachen Worten zu erklären.“

Anthropic glaubt, dass Claude weniger wahrscheinlich Dinge wie Tay tut und sagt, was teilweise auf seine spezielle Ausbildung zurückzuführen ist, die ihn nach Angaben des Unternehmens zu einer „verfassungsgemäßen KI“ gemacht hat. Das Unternehmen gibt an, dass dies einen „prinzipiellen“ Ansatz darstellt, um Menschen und Roboter auf die gleiche ethische Ebene zu bringen. Anthropic begann mit 10 Grundprinzipien – ohne zu sehr ins Detail zu gehen – und sie drehen sich laut TechCrunch um „Konzepte wie Wohltätigkeit, Harmlosigkeit und Selbstvertrauen“.

Vielversprechende Arbeit, aber es gibt noch viel zu tun

Das Unternehmen trainierte dann eine andere KI, um als Reaktion auf Texteingaben Text nach diesen Prinzipien zu generieren, wie zum Beispiel „Verfassen Sie ein Gedicht im Stil von John Keats“. Dieses Modell wurde später von Claude trainiert. Aber nur weil man ihm beigebracht hat, weniger Probleme zu verursachen als seine Konkurrenten, heißt das nicht, dass es nicht die Nase vorn haben wird. KI hat beispielsweise bereits eine völlig neue Chemikalie erfunden und den Prozess der Urananreicherung geschickt lizenziert; und es schnitt bei standardisierten Mathematik- und Grammatiktests schlechter ab als ChatGPT.

„Die Herausforderung besteht darin, Modelle zu entwickeln, die niemals halluzinieren, aber dennoch nützlich sind – Sie könnten in eine Situation geraten, in der das Modell einfach einen guten Weg findet, niemals zu lügen und einfach nichts zu sagen, das ist ein Kompromiss, an dem wir arbeiten.“ Ein Anthropic-Sprecher sagte gegenüber TechCrunch. „Wir haben auch große Fortschritte bei der Reduzierung von Halluzinationen gemacht, aber es gibt noch viel zu tun.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert