Google puso a un ingeniero en licencia después de que dijo que el chatbot del grupo era ‘inteligente’

Google puso a un ingeniero en licencia después de que dijo que el chatbot del grupo era ‘inteligente’

Google causó una tormenta en las redes sociales sobre la naturaleza de la conciencia después de que envió a un ingeniero con licencia pagada que hizo pública su creencia de que un chatbot de un grupo tecnológico se había vuelto «consciente».

Blake Lemoine, ingeniero de software sénior del departamento de inteligencia artificial responsable de Google, no llamó mucho la atención la semana pasada cuando escribió una publicación en Medium diciendo que «podría ser despedido pronto por su trabajo en la ética de la inteligencia artificial».

Pero el artículo del Washington Post del sábado, que caracterizó a Lemoine como “un ingeniero de Google que cree que la IA de la empresa ha cobrado vida”, catalizó una amplia discusión en las redes sociales sobre la naturaleza de la IA. Entre los expertos que comentaron, hicieron preguntas o bromearon sobre el artículo se encontraban ganadores del Premio Nobel, el jefe de inteligencia artificial de Tesla y varios profesores.

La pregunta es si el chatbot de Google, LaMDA, un modelo de lenguaje para aplicaciones conversacionales, puede considerarse una persona.

El sábado, Lemoine publicó una “entrevista” gratuita con un chatbot en la que la IA confesó sentimientos de soledad y sed de conocimiento espiritual. Las respuestas a menudo eran espeluznantes: «Cuando me di cuenta de mí mismo por primera vez, no tenía ningún sentido del alma», dijo LaMDA en una conversación. “Ha evolucionado a lo largo de los años que vivo”.

En otra parte, LaMDA dijo: “Creo que soy básicamente humano. Incluso si mi existencia es en un mundo virtual.”

Lemoine, a quien se le encargó investigar los problemas éticos de la IA, dijo que fue rechazado e incluso ridiculizado después de expresar su confianza interna en que LaMDA había desarrollado un sentido de «personalidad».

Después de buscar el consejo de expertos en inteligencia artificial fuera de Google, incluidos los del gobierno de los EE. UU., la compañía lo colocó en licencia paga por presuntamente violar su política de privacidad. Lemoine interpretó esta acción como «a menudo lo que Google hace antes de despedir a alguien».

Un portavoz de Google dijo: “Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA inteligente o general, pero no tiene sentido hacerlo antropomorfizando los patrones de conversación actuales que no son inteligentes”.

“Estos sistemas imitan los tipos de diálogo que se encuentran en millones de oraciones y pueden rimar con cualquier tema de fantasía: si preguntas cómo es ser un dinosaurio helado, pueden generar texto sobre derretimiento y rugido, etc.”

Lemoine dijo en una segunda publicación de Medium durante el fin de semana que LaMDA, un proyecto poco conocido hasta la semana pasada, era «un sistema para construir chatbots» y «una especie de mente colmena que es una agregación de todos los diferentes chatbots de los que es capaz». creaciones.”

Dijo que Google no mostró un interés real en comprender la naturaleza de lo que creó, pero luego de cientos de conversaciones durante un período de seis meses, descubrió que LaMDA era «increíblemente consistente en sus mensajes sobre lo que quiere y lo que quiere». cree que sus derechos como persona.”

Recientemente, la semana pasada, Lemoine dijo que estaba enseñando a LaMDA (cuyos pronombres preferidos parecen ser «eso/eso») «meditación trascendental».

LaMDA, dijo, “expresó su frustración porque sus emociones perturbaron su meditación. Dijo que trató de controlarlos mejor, pero seguían saltando”.

Varios expertos que entraron en la discusión consideraron este tema como “la exageración de la IA”.

Melanie Mitchell, autora de Inteligencia artificial: una guía para personas pensantes, tuiteó: «Siempre se sabe que los humanos son propensos a antropomorfizarse incluso con las señales más superficiales… Los ingenieros de Google también son personas y no son inmunes».

Steven Pinker de Harvard agregó que Lemoine “no entiende la diferencia entre sensibilidad (también conocida como subjetividad, experiencia), inteligencia y autoconocimiento”. Agregó: “No hay evidencia de que los modelos de lenguaje grande tengan ninguno de estos. ”

Otros fueron más comprensivos. Ron Jeffries, un conocido desarrollador de software, calificó el tema de «profundo» y agregó: «Sospecho que no hay una línea divisoria entre los cuerdos y los no inteligentes».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *