Claude’s AI iš Anthropic vadovaujasi 10 ramsčių, kad būtų užtikrintas jo nešališkumas.

Anthropic moko savo pokalbio AI laikytis pagrindinių principų. Daug žadantis darbas, bet dar daug ką reikia padaryti.
Nepaisant gebėjimo pateikti neįtikėtinai gyvybingą prozą, generatyvūs AI, tokie kaip „Google Bard“ ar „OpenAI ChatGPT“, jau demonstruoja dabartinių technologijų apribojimus, ypač kalbant apie vartotojams siūlomos informacijos pagrįstumą. Tačiau esant tokiam populiarumui ir tokiam įspūdingam potencialui, ne šios smulkmenos trukdys šiems milžinams kuo greičiau pristatyti savo gaminius plačiajai visuomenei. Kai kurie dalykus daro kitaip .
Anthropic moko savo pokalbio AI laikytis pagrindinių principų
Kita vertus, „Anthropic“ komandą sudaro daug buvusių „OpenAI“ darbuotojų ir ji laikosi pragmatiškesnio požiūrio kurdama savo „Claude“ pokalbių robotą. Remiantis „TechCrunch“ ataskaita, rezultatas yra AI, kuris yra daug „labiau valdomas“ ir „daug mažiau linkęs kurti pavojingą turinį“ nei ChatGPT.
Claude’as buvo uždaroje beta versijoje nuo 2022 m. pabaigos, tačiau tik neseniai pradėjo tikrinti savo pokalbio gebėjimus su tokiais partneriais kaip Robin AI, Quora ir į privatumą orientuota paieškos sistema Duck Duck Go. TechCrunch, kad paleidimo metu bus prieinamos dvi versijos: standartinė API ir lengvesnė, greitesnė versija, vadinama Claude Instant.
„Mes naudojame Claude, kad įvertintume konkrečius sutarties aspektus ir pateiktume naujas kalbų alternatyvas, kurios labiau tinka mūsų klientams“, – „TechCrunch“ sakė Robin generalinis direktorius Richardas Robinsonas. „Mes nustatėme, kad Claude’as yra nepaprastai gabus suprasti kalbą, įskaitant tokias technines sritis kaip teisinė kalba. Tai taip pat labai tinka pirmiesiems juodraščiams, santraukoms, vertimams kurti ir sudėtingoms sąvokoms paprastai paaiškinti.
Anthropic mano, kad Claude’as rečiau elgiasi ir sako tokius dalykus kaip Tay, iš dalies dėl jo specializuoto mokymo, dėl kurio jis tapo „konstituciniu AI“. Bendrovė teigia, kad tai yra „principinis“ požiūris į bandymą įtraukti žmones ir robotus į tą patį etikos puslapį. „Anthropic“ prasidėjo nuo 10 pagrindinių principų – nesigilinant į detales – ir jie sukasi aplink „sąvokas, tokias kaip gerumas, nekenksmingumas ir pasitikėjimas savimi“, – teigia „TechCrunch“.
Daug žadantis darbas, bet dar daug ką reikia padaryti
Tada įmonė išmokė kitą dirbtinį intelektą generuoti tekstą pagal šiuos principus, reaguodama į teksto įvestį, pvz., „sukurti eilėraštį Johno Keatso stiliumi“. Šį modelį vėliau išmokė Claude’as. Tačiau vien todėl, kad jis buvo išmokytas sukurti mažiau problemų nei konkurentai, dar nereiškia, kad jis nepasieks aukščiausių rezultatų. Pavyzdžiui, AI jau išrado visiškai naują cheminę medžiagą ir sumaniai licencijavo urano sodrinimo procesą; ir standartizuotų matematikos ir gramatikos testų balas buvo mažesnis nei ChatGPT.
„Iššūkis yra sukurti modelius, kurie niekada nekeltų haliucinacijų, bet vis tiek būtų naudingi – galite atsidurti situacijoje, kai modelis tiesiog suras gerą būdą niekada nemeluoti ir tiesiog nieko nesakyti. Tai yra kompromisas, dėl kurio mes dirbame. „TechCrunch“ sakė antropinis atstovas spaudai. „Mes taip pat padarėme didelę pažangą mažindami haliucinacijas, tačiau dar reikia daug nuveikti.
Parašykite komentarą