Kloda AI no Anthropic vada 10 pīlāri, lai nodrošinātu tā objektivitāti.

Anthropic apmāca savu sarunvalodas AI ievērot pamatprincipus. Daudzsološs darbs, bet vēl daudz darāmā.
Neskatoties uz spēju sniegt neticami dzīvīgu prozu, ģeneratīvie AI, piemēram, Google Bard vai OpenAI ChatGPT, jau demonstrē pašreizējo tehnoloģiju ierobežojumus, jo īpaši attiecībā uz lietotājiem piedāvātās informācijas derīgumu. Taču ar tādu popularitāti un tik iespaidīgu potenciālu ne jau šīs mazās aizķeršanās liegs šiem milžiem pēc iespējas ātrāk laist savu produkciju plašākai sabiedrībai. Daži dara lietas savādāk .
Anthropic apmāca savu sarunvalodas AI ievērot pamatprincipus
No otras puses, Anthropic komanda sastāv no daudziem bijušajiem OpenAI darbiniekiem un izmanto pragmatiskāku pieeju sava Claude tērzēšanas robota izstrādei. Rezultāts ir AI, kas saskaņā ar TechCrunch ziņojumu ir daudz “vairāk pārvaldāms” un “daudz mazāk pakļauts bīstama satura radīšanai” nekā ChatGPT.
Klods ir bijis slēgtā beta versijā kopš 2022. gada beigām, taču tikai nesen sācis pārbaudīt savas sarunvalodas spējas ar tādiem partneriem kā Robin AI, Quora un uz privātumu vērstu meklētājprogrammu Duck Duck Go. TechCrunch, ka palaišanas laikā būs pieejamas divas versijas: standarta API un vieglāka, ātrāka versija ar nosaukumu Claude Instant.
“Mēs izmantojam Claude, lai novērtētu konkrētus līguma aspektus un piedāvātu jaunas valodu alternatīvas, kas ir piemērotākas mūsu klientiem,” TechCrunch sacīja Robina izpilddirektors Ričards Robinsons. “Mēs atklājām, ka Klods ir ārkārtīgi apdāvināts, saprotot valodu, tostarp tādās tehniskās jomās kā juridiskā valoda. Tas ir arī ļoti labs, lai izveidotu pirmos melnrakstus, kopsavilkumus, tulkojumus un vienkārši izskaidrotu sarežģītus jēdzienus.
Anthropic uzskata, ka Klods retāk darīs un runās tādas lietas kā Tejs, daļēji viņa specializētās apmācības dēļ, kas, pēc uzņēmuma domām, padarīja viņu par “konstitucionālo AI”. Uzņēmums saka, ka tas nodrošina “principālu” pieeju, lai mēģinātu cilvēkus un robotus ievietot vienā ētikas lapā. Anthropic sākās ar 10 pamatprincipiem, neiedziļinoties detaļās, un tie ir saistīti ar tādiem jēdzieniem kā labvēlība, nekaitīgums un pašapziņa, saskaņā ar TechCrunch.
Daudzsološs darbs, bet vēl daudz darāmā
Pēc tam uzņēmums apmācīja citu AI, lai ģenerētu tekstu saskaņā ar šiem principiem, reaģējot uz teksta ievadi, piemēram, “sacerēt dzejoli Džona Kītsa stilā”. Šo modeli vēlāk apmācīja Klods. Bet tas, ka tas ir iemācīts radīt mazāk problēmu nekā konkurenti, nenozīmē, ka tas neizcelsies. Piemēram, mākslīgais intelekts jau ir izgudrojis pilnīgi jaunu ķīmisku vielu un gudri licencējis urāna bagātināšanas procesu; un standartizētajos matemātikas un gramatikas testos tas ieguva zemāku punktu skaitu nekā ChatGPT.
“Izaicinājums ir izstrādāt modeļus, kas nekad neradīs halucinācijas, bet tomēr ir noderīgi — jūs varat nonākt situācijā, kad modele vienkārši atrod labu veidu, kā nekad nemelot un vienkārši neko neteikt. Tas ir kompromiss, pie kura mēs strādājam. Anthropic pārstāvis teica TechCrunch. “Mēs esam arī guvuši lielus panākumus halucināciju mazināšanā, taču vēl ir daudz darāmā.”
Atbildēt