Claudes AI från Anthropic styrs av 10 pelare för att säkerställa dess opartiskhet.

Claudes AI från Anthropic styrs av 10 pelare för att säkerställa dess opartiskhet.

Anthropic tränar sin konversations-AI för att följa grundläggande principer. Lovande arbete, men mycket återstår att göra.

Trots sin förmåga att leverera otroligt levande prosa, visar generativa AI:er som Google Bard eller OpenAI ChatGPT redan begränsningarna hos nuvarande teknik, särskilt när det gäller giltigheten av den information som erbjuds användarna. Men med en sådan popularitet och en sådan imponerande potential är det inte dessa små problem som kommer att hindra dessa jättar från att ta ut sina produkter till allmänheten så snabbt som möjligt. Vissa gör saker annorlunda .

Anthropic tränar sin konversations-AI för att följa grundläggande principer

Å andra sidan består Anthropic-teamet av många före detta OpenAI-anställda och tar ett mer pragmatiskt tillvägagångssätt för att utveckla sin egen Claude chatbot. Resultatet är en AI som är mycket ”mer hanterbar” och ”mycket mindre benägen att skapa farligt innehåll” än ChatGPT, enligt en TechCrunch-rapport.

Claude har varit i stängd beta sedan slutet av 2022, men har först nyligen börjat testa sina samtalsförmåga med partners som Robin AI, Quora och den sekretessfokuserade sökmotorn Duck Duck Go. TechCrunch att två versioner kommer att finnas tillgängliga vid lanseringen: standard-API och en lättare, snabbare version som heter Claude Instant.

”Vi använder Claude för att utvärdera specifika aspekter av ett kontrakt och komma med nya språkalternativ som är mer lämpliga för våra kunder,” sa Robins vd Richard Robinson till TechCrunch. ”Vi tyckte att Claude var extremt begåvad i att förstå språk, inklusive tekniska områden som juridiskt språk. Det är också mycket bra för att skapa första utkast, sammanfattningar, översättningar och förklara komplexa begrepp i enkla termer.”

Anthropic tror att Claude är mindre benägen att göra och säga saker som Tay, delvis på grund av hans specialiserade utbildning, som företaget säger gjorde honom till en ”konstitutionell AI”. Företaget säger att detta ger ett ”principiellt” tillvägagångssätt för att försöka sätta människor och robotar på samma etiska sida. Anthropic började med 10 kärnprinciper – utan att gå in på för mycket detaljer – och de kretsar kring ”begrepp som välgörenhet, ofarlighet och självförtroende”, enligt TechCrunch.

Lovande arbete, men mycket mer att göra

Företaget tränade sedan en annan AI för att generera text enligt dessa principer som svar på textinmatning, till exempel ”komponera en dikt i stil med John Keats.” Denna modell tränades senare av Claude. Men bara för att det har lärt sig att skapa färre problem än sina konkurrenter betyder det inte att det inte kommer att hamna på topp. Till exempel har AI redan uppfunnit en helt ny kemikalie och har smart licensierat processen för anrikning av uran; och det fick lägre poäng än ChatGPT på standardiserade matte- och grammatiktest.

”Utmaningen är att utveckla modeller som aldrig kommer att hallucinera men som ändå är användbara – du kan hamna i en situation där modellen bara hittar ett bra sätt att aldrig ljuga och bara säga ingenting, det är en kompromiss vi jobbar på. En antropisk talesman berättade för TechCrunch. ”Vi har också gjort stora framsteg för att minska hallucinationer, men det finns fortfarande mycket kvar att göra.”

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *