L’intelligenza artificiale di Claude di Anthropic è guidata da 10 pilastri per garantirne l’imparzialità.

L’intelligenza artificiale di Claude di Anthropic è guidata da 10 pilastri per garantirne l’imparzialità.

Anthropic addestra la sua IA conversazionale a seguire i principi fondamentali. Lavoro promettente, ma resta ancora molto da fare.

Nonostante la loro capacità di fornire una prosa incredibilmente vivace, le IA generative come Google Bard o OpenAI ChatGPT stanno già dimostrando i limiti della tecnologia attuale, soprattutto per quanto riguarda la validità delle informazioni offerte agli utenti. Ma con una tale popolarità e un potenziale così impressionante, non sono questi piccoli intoppi che impediranno a questi giganti di portare i loro prodotti al grande pubblico il più rapidamente possibile. Alcuni fanno le cose in modo diverso .

Anthropic addestra la sua IA conversazionale a seguire i principi fondamentali

D’altra parte, il team Anthropic è composto da molti ex dipendenti OpenAI e adotta un approccio più pragmatico allo sviluppo del proprio chatbot Claude. Il risultato è un’intelligenza artificiale molto “più gestibile” e “molto meno incline a creare contenuti pericolosi” rispetto a ChatGPT, secondo un rapporto di TechCrunch.

Claude è in beta chiusa dalla fine del 2022, ma solo di recente ha iniziato a testare le sue capacità di conversazione con partner come Robin AI, Quora e il motore di ricerca incentrato sulla privacy Duck Duck Go. TechCrunch che al lancio saranno disponibili due versioni: l’API standard e una versione più leggera e veloce chiamata Claude Instant.

“Usiamo Claude per valutare aspetti specifici di un contratto e trovare nuove alternative linguistiche più appropriate per i nostri clienti”, ha dichiarato a TechCrunch il CEO di Robin, Richard Robinson. “Abbiamo trovato Claude estremamente dotato nella comprensione del linguaggio, comprese aree tecniche come il linguaggio legale. È anche ottimo per creare prime bozze, riassunti, traduzioni e spiegare concetti complessi in termini semplici.”

Anthropic ritiene che Claude sia meno propenso a fare e dire cose come Tay, in parte a causa della sua formazione specializzata, che secondo la società lo ha reso una “IA costituzionale”. L’azienda afferma che ciò fornisce un approccio “di principio” per cercare di mettere esseri umani e robot sulla stessa pagina etica. Anthropic è iniziato con 10 principi fondamentali – senza entrare troppo nei dettagli – e ruotano attorno a “concetti come beneficenza, innocuità e fiducia in se stessi”, secondo TechCrunch.

Lavoro promettente, ma molto altro ancora da fare

L’azienda ha quindi addestrato un’altra intelligenza artificiale per generare testo secondo questi principi in risposta all’input di testo, come “comporre una poesia nello stile di John Keats”. Questo modello è stato successivamente addestrato da Claude. Ma solo perché gli è stato insegnato a creare meno problemi rispetto ai suoi concorrenti non significa che non ne uscirà vincitore. Ad esempio, AI ha già inventato una sostanza chimica completamente nuova e ha abilmente concesso in licenza il processo di arricchimento dell’uranio; e ha ottenuto un punteggio inferiore a ChatGPT nei test di matematica e grammatica standardizzati.

“La sfida è sviluppare modelli che non diano mai allucinazioni ma che siano comunque utili: potresti finire in una situazione in cui il modello trova semplicemente un buon modo per non mentire mai e semplicemente non dire nulla, questo è un compromesso su cui stiamo lavorando. Un portavoce di Anthropic ha detto a TechCrunch. “Abbiamo anche fatto passi da gigante nella riduzione delle allucinazioni, ma c’è ancora molto da fare”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *