I googler affermano che l’intelligenza artificiale di Bard è “peggio che inutile” e le considerazioni etiche vengono ignorate
Dal punto di vista di Google, Bard sembra una corsa per competere con ChatGPT e alcuni Googler sono d’accordo. Un nuovo rapporto di Bloomberg ha intervistato 18 dipendenti attuali ed ex ed è pieno di commenti di condanna e preoccupazioni sul fatto che i team di etica dell’IA vengano “privati dei diritti civili e demoralizzati” in modo che Google possa cacciare Bard dalla porta.
Secondo il rapporto, ai dipendenti di Google è stato chiesto di testare una versione pre-rilascio di Bard per il loro feedback, che è stato ampiamente ignorato in modo che Bard potesse avviarsi più velocemente. Le discussioni interne visualizzate da Bloomberg hanno definito Bard “degno di un sussulto” e un “bugiardo patologico”. Quando gli è stato chiesto come far atterrare l’aereo, ha dato istruzioni errate che avrebbero portato allo schianto. Un membro del personale ha chiesto istruzioni per l’immersione e ha ricevuto una risposta che, secondo lui, avrebbe “probabilmente provocato lesioni gravi o morte”. Uno dei dipendenti ha descritto i problemi di Bard in un post di febbraio intitolato “Bard è peggio che inutile: per favore non lanciarlo”. Bard è stato lanciato a marzo.
Probabilmente potresti dire lo stesso del concorrente AI che Google sta inseguendo, ChatGPT di OpenAI. Entrambi possono fornire informazioni distorte o false e allucinare risposte sbagliate. Google è molto indietro rispetto a ChatGPT e la società è nel panico per la capacità di ChatGPT di rispondere a domande che le persone potrebbero altrimenti digitare nelle ricerche su Google. Il creatore di ChatGPT, OpenAI, è stato criticato per il suo approccio lassista alla sicurezza e all’etica dell’IA. Ora Google è in una situazione difficile. Se l’unica preoccupazione di un’azienda è calmare il mercato azionario e mettersi al passo con ChatGPT, probabilmente non sarà in grado di farlo se rallenta i problemi etici.
Meredith Whittaker, ex manager di Google e presidente della Signal Foundation, ha dichiarato a Bloomberg che “l’etica dell’intelligenza artificiale è passata in secondo piano” in Google e afferma che “se l’etica non ha la priorità sul profitto e sulla crescita, non funzionerà”. Bloomberg riferisce che le revisioni etiche dell’IA di Google sono oggi “quasi interamente volontarie”.
Sebbene tu possa fare qualcosa in Google per provare a rallentare i rilasci a causa di problemi etici, probabilmente non sarà positivo per la tua carriera. Il rapporto afferma: “Uno degli ex dipendenti ha affermato di aver chiesto di lavorare sull’equità nell’apprendimento automatico e di essere stato regolarmente dissuaso, al punto che ciò ha influito sulla loro valutazione delle prestazioni. I dirigenti hanno protestato dicendo che ciò interferiva con il loro “vero lavoro”. “
Lascia un commento