Claudeova AI z Anthropic je vedena 10 pilíři, aby byla zajištěna její nestrannost.

Claudeova AI z Anthropic je vedena 10 pilíři, aby byla zajištěna její nestrannost.

Anthropic trénuje svou konverzační umělou inteligenci, aby dodržovala základní principy. Slibná práce, ale zbývá ještě mnoho udělat.

Navzdory své schopnosti dodávat neuvěřitelně živou prózu, generativní AI jako Google Bard nebo OpenAI ChatGPT již prokazují omezení současné technologie, zejména s ohledem na platnost informací nabízených uživatelům. Ale s takovou popularitou a tak působivým potenciálem to nejsou tyto malé problémy, které zabrání těmto gigantům v co nejrychlejším uvedení jejich produktů široké veřejnosti. Někteří dělají věci jinak .

Anthropic trénuje svou konverzační umělou inteligenci, aby dodržovala základní principy

Na druhou stranu tým Anthropic tvoří mnoho bývalých zaměstnanců OpenAI a k vývoji vlastního chatbota Claude zaujímá pragmatičtější přístup. Výsledkem je AI, která je podle zprávy TechCrunch mnohem „snadněji ovladatelná“ a „mnohem méně náchylná k vytváření nebezpečného obsahu“ než ChatGPT.

Claude je v uzavřené beta verzi od konce roku 2022, ale teprve nedávno začal testovat své konverzační schopnosti s partnery jako Robin AI, Quora a vyhledávač Duck Duck Go zaměřený na soukromí. TechCrunch, že při spuštění budou k dispozici dvě verze: standardní API a lehčí, rychlejší verze s názvem Claude Instant.

„Využíváme Clauda k vyhodnocení konkrétních aspektů smlouvy a přicházíme s novými jazykovými alternativami, které jsou pro naše klienty vhodnější,“ řekl TechCrunch generální ředitel Robin Richard Robinson. „Zjistili jsme, že Claude je mimořádně nadaný v porozumění jazyku, včetně technických oblastí, jako je právní jazyk. Je také velmi dobrá pro vytváření prvních návrhů, shrnutí, překladů a vysvětlování složitých pojmů jednoduchými termíny.“

Anthropic věří, že Claude je méně pravděpodobné, že bude dělat a říkat věci jako Tay, částečně kvůli jeho specializovanému školení, které z něj podle společnosti udělalo „ústavní AI“. Společnost říká, že to poskytuje „principiální“ přístup ke snaze postavit lidi a roboty na stejnou etickou stránku. Anthropic začal s 10 základními principy – aniž bychom zacházeli do přílišných detailů – a točí se kolem „pojmů jako dobročinnost, neškodnost a sebevědomí“ podle TechCrunch.

Slibná práce, ale je třeba udělat mnohem víc

Společnost poté vycvičila další umělou inteligenci, aby generovala text podle těchto principů v reakci na textový vstup, například „složte báseň ve stylu Johna Keatse“. Tento model později vycvičil Claude. Ale to, že byl naučen vytvářet méně problémů než jeho konkurenti, neznamená, že se nedostane na vrchol. Například AI již vynalezla zcela novou chemikálii a chytře licencovala proces obohacování uranu; a dosáhl nižšího skóre než ChatGPT ve standardizovaných matematických a gramatických testech.

„Výzvou je vyvinout modely, které nikdy nebudou halucinovat, ale přesto budou užitečné – můžete se dostat do situace, kdy modelka prostě najde dobrý způsob, jak nikdy nelhat a nic neříkat, to je kompromis, na kterém pracujeme. Mluvčí Anthropic řekl TechCrunch. „Udělali jsme také velké pokroky ve snižování halucinací, ale stále je třeba udělat hodně.“

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *