Claude’s AI van Anthropic wordt geleid door 10 pijlers om zijn onpartijdigheid te waarborgen.

Claude’s AI van Anthropic wordt geleid door 10 pijlers om zijn onpartijdigheid te waarborgen.

Anthropic traint zijn conversationele AI om fundamentele principes te volgen. Veelbelovend werk, maar er moet nog veel gebeuren.

Ondanks hun vermogen om ongelooflijk levendig proza ​​te leveren, laten generatieve AI’s zoals Google Bard of OpenAI ChatGPT al de beperkingen van de huidige technologie zien, vooral met betrekking tot de geldigheid van de informatie die aan gebruikers wordt aangeboden. Maar met zo’n populariteit en zo’n indrukwekkend potentieel, zijn het niet deze kleine haperingen die deze reuzen ervan weerhouden hun producten zo snel mogelijk bij het grote publiek te brengen. Sommigen doen dingen anders .

Anthropic traint zijn conversationele AI om fundamentele principes te volgen

Aan de andere kant bestaat het Anthropic-team uit veel voormalige OpenAI-medewerkers en hanteert het een meer pragmatische benadering bij het ontwikkelen van hun eigen Claude-chatbot. Het resultaat is een AI die veel “beter beheersbaar” en “veel minder vatbaar voor het creëren van gevaarlijke inhoud” is dan ChatGPT, volgens een TechCrunch-rapport.

Claude bevindt zich sinds eind 2022 in een gesloten bèta, maar is pas onlangs begonnen met het testen van zijn conversatievaardigheden met partners als Robin AI, Quora en de op privacy gerichte zoekmachine Duck Duck Go. TechCrunch dat er bij de lancering twee versies beschikbaar zullen zijn: de standaard API en een lichtere, snellere versie genaamd Claude Instant.

“We gebruiken Claude om specifieke aspecten van een contract te evalueren en nieuwe taalalternatieven te bedenken die geschikter zijn voor onze klanten”, vertelde Richard Robinson, CEO van Robin, aan TechCrunch. “We ontdekten dat Claude buitengewoon begaafd was in het begrijpen van taal, ook op technische gebieden zoals juridische taal. Het is ook erg goed voor het maken van eerste concepten, samenvattingen, vertalingen en het in eenvoudige bewoordingen uitleggen van complexe concepten.”

Anthropic is van mening dat Claude minder geneigd is om dingen als Tay te doen en te zeggen, deels vanwege zijn gespecialiseerde opleiding, die hem volgens het bedrijf tot een “constitutionele AI” heeft gemaakt. Het bedrijf zegt dat dit een “principiële” benadering biedt om mensen en robots op dezelfde ethische pagina te plaatsen. Anthropic begon met 10 kernprincipes – zonder al te veel in detail te treden – en ze draaien om “concepten als weldadigheid, onschadelijkheid en zelfvertrouwen”, aldus TechCrunch.

Veelbelovend werk, maar er moet nog veel gebeuren

Het bedrijf trainde vervolgens een andere AI om tekst te genereren volgens deze principes als reactie op tekstinvoer, zoals ‘componeer een gedicht in de stijl van John Keats’. Dit model werd later getraind door Claude. Maar alleen omdat het is geleerd om minder problemen te creëren dan zijn concurrenten, wil nog niet zeggen dat het niet als beste uit de bus komt. AI heeft bijvoorbeeld al een geheel nieuwe chemische stof uitgevonden en heeft slim het uraniumverrijkingsproces in licentie gegeven; en het scoorde lager dan ChatGPT op gestandaardiseerde wiskunde- en grammaticatests.

“De uitdaging is om modellen te ontwikkelen die nooit hallucineren maar toch bruikbaar zijn – je zou in een situatie terecht kunnen komen waarin het model gewoon een goede manier vindt om nooit te liegen en gewoon niets te zeggen, dat is een compromis waar we aan werken. Een Antropische woordvoerder vertelde TechCrunch. “We hebben ook grote vooruitgang geboekt bij het verminderen van hallucinaties, maar er is nog veel te doen.”

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *