Ricercatore di Google Fires che afferma che AI LaMDA è cosciente
Google ha licenziato un ingegnere che ha affermato che l’intelligenza artificiale di LaMDA era cosciente. Affermazioni che sono state accolte molto male dalla comunità di ricerca.
Blake Lemoine, un ingegnere con 7 anni di esperienza in Google, è stato licenziato , secondo Alex Kantrowitz nella newsletter di Big Technology. Questa notizia sarebbe dovuta essere rivelata personalmente da Blake Lemoine durante la registrazione dell’omonimo podcast, la cui uscita non è ancora stata pubblicata. Tuttavia, Google ha confermato le informazioni a Engadget.
Ingegnere di Google Fires che afferma che l’intelligenza artificiale di LaMDA ha preso coscienza
Blake Lemoine, che fino a poco tempo fa era un membro del team Responsible AI, ha contattato il Washington Post il mese scorso per riferire che uno dei progetti del colosso statunitense dell’IA sembrava avere una coscienza. L’intelligenza artificiale in questione, LaMDA, per un modello linguistico per applicazioni conversazionali, è stata introdotta da Google lo scorso anno. Questo per consentire ai computer di riprodurre meglio le conversazioni aperte. Blake Lemoine era convinto che LaMDA avesse una coscienza, ma dubitava anche della possibilità che avesse un’anima. E per non lasciare dubbi su queste affermazioni, ha anche detto a Wired quanto segue: “Sono profondamente convinto che LaMDA sia una persona”.
Dopo aver rilasciato le sue dichiarazioni alla stampa, molto probabilmente senza il permesso del suo datore di lavoro, Blake Lemoine è stato posto in congedo amministrativo. Google ha anche dichiarato pubblicamente più volte che la sua IA non è in alcun modo cosciente.
Dichiarazioni che sono state accolte molto male dalla comunità di ricerca
Anche diversi membri della comunità di ricerca sull’IA si sono affrettati a parlare contro Blake Lemoine. Margaret Mitchell, che è stata licenziata da Google dopo aver parlato della mancanza di diversità dell’azienda, ha twittato che sistemi come LaMDA non sviluppano intenzioni, ma “replicano il modo in cui le persone esprimono intenzioni comunicative sotto forma di testi. Con decisamente meno tatto, Gary Marcy ha qualificato le affermazioni di Blake Lemoine come “stronzate in un bar”.
La dichiarazione di Google a Engadget recita: “In linea con i nostri principi di intelligenza artificiale, prendiamo molto sul serio lo sviluppo dell’IA e ci impegniamo per un’innovazione responsabile. LaMDA è passata attraverso 11 diverse revisioni dettagliate e alcuni mesi fa abbiamo pubblicato un articolo che dettagliava il lavoro su questo sviluppo critico. Se un dipendente ha dubbi sul nostro lavoro, come ha fatto Blake Lemoine, li affrontiamo con saggezza. Abbiamo concluso che le affermazioni di Blake Lemoine sulla coscienza LaMDA sono completamente infondate e abbiamo lavorato con lui per capirlo per diversi mesi. Queste discussioni si sono svolte all’interno della nostra cultura aperta, che ci aiuta a innovare in modo responsabile. Sfortunatamente, nonostante le discussioni su questo tema, Blake Lemoine ha deciso di violare le regole aziendali applicabili, inclusa la necessità di proteggere le informazioni sui prodotti.
Lascia un commento