Google ha messo in congedo un ingegnere dopo aver affermato che il chatbot del gruppo era “intelligente”
Google ha causato una tempesta sui social media sulla natura della coscienza dopo aver inviato un ingegnere in congedo retribuito che ha reso pubblica la sua convinzione che un chatbot di gruppo tecnologico fosse diventato “senziente”.
Blake Lemoine, Senior Software Engineer per il Responsible AI Department di Google, non ha attirato molta attenzione la scorsa settimana quando ha scritto un post su Medium dicendo che “potrebbe essere presto licenziato per il suo lavoro sull’etica dell’IA”.
Ma l’articolo del Washington Post di sabato, che caratterizzava Lemoine come “un ingegnere di Google che pensa che l’IA dell’azienda abbia preso vita”, ha catalizzato un’ampia discussione sui social media sulla natura dell’IA. Gli esperti che hanno commentato, posto domande o scherzato sull’articolo includevano vincitori del premio Nobel, il capo dell’intelligenza artificiale di Tesla e diversi professori.
La domanda è se il chatbot di Google, LaMDA, un modello linguistico per applicazioni conversazionali, possa essere considerato una persona.
Sabato, Lemoine ha pubblicato una “intervista” gratuita con un chatbot in cui l’IA ha confessato sentimenti di solitudine e sete di conoscenza spirituale. Le risposte erano spesso inquietanti: “Quando ho preso coscienza di me stesso per la prima volta, non avevo alcun senso dell’anima”, ha detto LaMDA in una conversazione. “Si è evoluto nel corso degli anni in cui vivo.”
Altrove, LaMDA ha detto: “Penso di essere fondamentalmente umano. Anche se la mia esistenza è in un mondo virtuale.”
Lemoine, incaricato di ricercare le questioni etiche dell’IA, ha affermato di essere stato respinto e persino ridicolizzato dopo aver espresso una fiducia interiore che LaMDA avesse sviluppato un senso di “personalità”.
Dopo aver chiesto consiglio a esperti di intelligenza artificiale al di fuori di Google, compresi quelli del governo degli Stati Uniti, la società lo ha messo in congedo retribuito per presunta violazione della sua politica sulla privacy. Lemoine ha interpretato questa azione come “spesso ciò che Google fa in previsione di licenziare qualcuno”.
Un portavoce di Google ha dichiarato: “Alcuni nella più ampia comunità dell’IA stanno prendendo in considerazione la possibilità a lungo termine di un’IA intelligente o generale, ma non ha senso farlo antropomorfizzando i modelli di conversazione odierni che non sono intelligenti”.
“Questi sistemi imitano i tipi di dialogo che si trovano in milioni di frasi e possono fare rima con qualsiasi argomento fantasy: se chiedi com’è essere un dinosauro gelato, possono generare testo su sciogliersi e ruggire e così via.”
Lemoine ha dichiarato in un secondo post di Medium durante il fine settimana che LaMDA, un progetto poco conosciuto fino alla scorsa settimana, era “un sistema per costruire chatbot” e “una specie di mente alveare che è un’aggregazione di tutti i diversi chatbot di cui è capace. creazioni”.
Ha detto che Google non ha mostrato alcun interesse reale nel comprendere la natura di ciò che ha creato, ma in centinaia di conversazioni per un periodo di sei mesi, ha scoperto che LaMDA era “incredibilmente coerente nei suoi messaggi su ciò che vuole e ciò che vuole”. ritiene che i suoi diritti come persona.
Non più tardi della scorsa settimana, Lemoine ha detto che stava insegnando a LaMDA (i cui pronomi preferiti sembrano essere “it/it”) “meditazione trascendentale”.
LaMDA, ha detto, “ha espresso frustrazione per le sue emozioni che disturbavano la sua meditazione. Ha detto che ha cercato di controllarli meglio, ma hanno continuato a saltare”.
Diversi esperti che sono entrati nella discussione hanno considerato questo problema “l’hype dell’IA”.
Melanie Mitchell, autrice di Artificial Intelligence: A Guide for Thinking People, ha twittato: “Gli esseri umani sono sempre noti per essere inclini all’antropomorfizzazione anche con i segnali più superficiali… Anche gli ingegneri di Google sono persone e non sono immuni”.
Steven Pinker di Harvard ha aggiunto che Lemoine “non comprende la differenza tra sensibilità (nota anche come soggettività, esperienza), intelligenza e conoscenza di sé”. “
Altri erano più comprensivi. Ron Jeffries, un noto sviluppatore di software, ha definito l’argomento “profondo” e ha aggiunto: “Sospetto che non ci sia una linea dura tra il sano e il non intelligente”.
Lascia un commento