A IA de Claude da Anthropic é guiada por 10 pilares para garantir sua imparcialidade.

A IA de Claude da Anthropic é guiada por 10 pilares para garantir sua imparcialidade.

A Anthropic treina sua IA conversacional para seguir princípios fundamentais. Trabalho promissor, mas ainda há muito a ser feito.

Apesar de sua capacidade de entregar uma prosa incrivelmente vibrante, AIs generativas como Google Bard ou OpenAI ChatGPT já estão demonstrando as limitações da tecnologia atual, especialmente no que diz respeito à validade das informações oferecidas aos usuários. Mas com tamanha popularidade e potencial tão impressionante, não são esses pequenos contratempos que vão impedir essas gigantes de levar seus produtos ao grande público o mais rápido possível. Alguns fazem as coisas de maneira diferente .

Anthropic treina sua IA conversacional para seguir princípios fundamentais

Por outro lado, a equipe Anthropic é composta por muitos ex-funcionários da OpenAI e adota uma abordagem mais pragmática para desenvolver seu próprio chatbot Claude. O resultado é uma IA muito “mais gerenciável” e “muito menos propensa a criar conteúdo perigoso” do que o ChatGPT, de acordo com um relatório do TechCrunch.

Claude está em beta fechado desde o final de 2022, mas só recentemente começou a testar suas habilidades de conversação com parceiros como Robin AI, Quora e o mecanismo de busca focado em privacidade Duck Duck Go. TechCrunch que duas versões estarão disponíveis no lançamento: a API padrão e uma versão mais leve e rápida chamada Claude Instant.

“Usamos o Claude para avaliar aspectos específicos de um contrato e criar novas alternativas de linguagem que sejam mais apropriadas para nossos clientes”, disse o CEO da Robin, Richard Robinson, ao TechCrunch. “Constatamos que Claude é extremamente talentoso para entender a linguagem, incluindo áreas técnicas como a linguagem jurídica. Também é muito bom para criar rascunhos, resumos, traduções e explicar conceitos complexos em termos simples.”

A Anthropic acredita que Claude tem menos probabilidade de fazer e dizer coisas como Tay, em parte devido ao seu treinamento especializado, que a empresa diz que o tornou uma “IA constitucional”. A empresa diz que isso fornece uma abordagem “principal” para tentar colocar humanos e robôs na mesma página ética. A Anthropic começou com 10 princípios básicos – sem entrar em muitos detalhes – e eles giram em torno de “conceitos como beneficência, inofensividade e autoconfiança”, de acordo com o TechCrunch.

Trabalho promissor, mas muito mais a ser feito

A empresa então treinou outra IA para gerar texto de acordo com esses princípios em resposta à entrada de texto, como “compor um poema no estilo de John Keats”. Esse modelo foi posteriormente treinado por Claude. Mas só porque foi ensinado a criar menos problemas do que seus concorrentes, não significa que não sairá por cima. Por exemplo, a IA já inventou um produto químico totalmente novo e habilmente licenciou o processo de enriquecimento de urânio; e obteve pontuação inferior ao ChatGPT em testes padronizados de matemática e gramática.

“O desafio é desenvolver modelos que nunca terão alucinações, mas ainda serão úteis – você pode acabar em uma situação em que o modelo encontra uma boa maneira de nunca mentir e simplesmente não dizer nada, esse é um compromisso no qual estamos trabalhando. Um porta-voz da Anthropic disse ao TechCrunch. “Também fizemos grandes progressos na redução das alucinações, mas ainda há muito a ser feito.”

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *