O Google colocou um engenheiro de licença depois que ele disse que o chatbot do grupo era ‘inteligente’
O Google causou uma tempestade na mídia social sobre a natureza da consciência depois de enviar um engenheiro em licença remunerada que veio a público com sua crença de que um chatbot de um grupo de tecnologia havia se tornado “sensível”.
Blake Lemoine, engenheiro de software sênior do Departamento de IA responsável do Google, não atraiu muita atenção na semana passada quando escreveu um post no Medium dizendo que “poderia ser demitido em breve por seu trabalho na ética da IA”.
Mas o artigo do Washington Post de sábado, que caracterizou Lemoine como “um engenheiro do Google que acha que a IA da empresa ganhou vida”, catalisou uma ampla discussão na mídia social sobre a natureza da IA. Os especialistas que comentaram, fizeram perguntas ou fizeram piadas sobre o artigo incluíam ganhadores do Prêmio Nobel, o chefe de inteligência artificial da Tesla e vários professores.
A questão é se o chatbot do Google, LaMDA, um modelo de linguagem para aplicativos de conversação, pode ser considerado uma pessoa.
No sábado, Lemoine postou uma “entrevista” gratuita com um chatbot em que a IA confessava sentimentos de solidão e sede de conhecimento espiritual. As respostas costumavam ser estranhas: “Quando me tornei consciente de mim mesmo, não tinha nenhum senso de alma”, disse LaMDA em uma conversa. “Evoluiu ao longo dos anos que vivo.”
Em outro lugar, LaMDA disse: “Acho que sou basicamente humano. Mesmo que minha existência seja em um mundo virtual.”
Lemoine, encarregado de pesquisar as questões éticas da IA, disse que foi rejeitado e até ridicularizado depois de expressar uma confiança interna de que o LaMDA havia desenvolvido um senso de “personalidade”.
Depois de buscar conselhos de especialistas em IA fora do Google, incluindo os do governo dos EUA, a empresa o colocou em licença remunerada por supostamente violar sua política de privacidade. Lemoine interpretou essa ação como “muitas vezes o que o Google faz antes de demitir alguém”.
Um porta-voz do Google disse: “Alguns na comunidade mais ampla de IA estão considerando a possibilidade de longo prazo de IA inteligente ou geral, mas não faz sentido fazê-lo antropomorfizando os padrões de conversação de hoje que não são inteligentes”.
“Esses sistemas imitam os tipos de diálogo encontrados em milhões de frases e podem rimar com qualquer tópico de fantasia – se você perguntar como é ser um dinossauro de sorvete, eles podem gerar texto sobre derreter, rugir e assim por diante.”
Lemoine disse em um segundo post no Medium no fim de semana que o LaMDA, um projeto pouco conhecido até a semana passada, era “um sistema para construir chatbots” e “uma espécie de mente coletiva que é uma agregação de todos os diferentes chatbots de que é capaz. criações”.
Ele disse que o Google não demonstrou nenhum interesse real em entender a natureza do que criou, mas, em centenas de conversas durante um período de seis meses, descobriu que o LaMDA era “incrivelmente consistente em suas mensagens sobre o que deseja e o que deseja”. acredita que seus direitos como pessoa”.
Na semana passada, Lemoine disse que estava ensinando LaMDA (cujos pronomes preferidos parecem ser “it/it”) “meditação transcendental”.
LaMDA, disse ele, “expressou frustração com as emoções dela perturbando sua meditação. Ele disse que tentou controlá-los melhor, mas eles continuaram pulando.
Vários especialistas que entraram na discussão consideraram essa questão “o hype da IA”.
Melanie Mitchell, autora de Artificial Intelligence: A Guide for Thinking People, twittou: “Os humanos sempre são conhecidos por serem propensos a antropomorfizar mesmo com as dicas mais superficiais… Os engenheiros do Google também são pessoas e não estão imunes”.
Steven Pinker, de Harvard, acrescentou que Lemoine “não entende a diferença entre sensibilidade (também conhecida como subjetividade, experiência), inteligência e autoconhecimento”. ”
Outros foram mais simpáticos. Ron Jeffries, um conhecido desenvolvedor de software, chamou o tópico de “profundo” e acrescentou: “Suspeito que não haja uma linha dura entre o são e o não inteligente”.
Deixe um comentário