Google a mis un ingénieur en congé après avoir déclaré que le chatbot du groupe était « intelligent »
Google a provoqué une tempête sur les réseaux sociaux à propos de la nature de la conscience après avoir envoyé un ingénieur en congé payé qui a rendu public sa conviction qu’un chatbot d’un groupe technologique était devenu « sensible ».
Blake Lemoine, ingénieur logiciel senior pour le département IA responsable de Google, n’a pas attiré beaucoup d’attention la semaine dernière lorsqu’il a écrit un article sur Medium disant qu’il « pourrait être bientôt licencié pour son travail sur l’éthique de l’IA ».
Mais l’article de samedi du Washington Post, qui qualifiait Lemoine d' »ingénieur de Google qui pense que l’IA de l’entreprise a pris vie », a catalysé une large discussion sur les réseaux sociaux sur la nature de l’IA. Parmi les experts commentant, posant des questions ou plaisantant sur l’article figuraient des lauréats du prix Nobel, le responsable de l’intelligence artificielle de Tesla et plusieurs professeurs.
La question est de savoir si le chatbot de Google, LaMDA, un modèle de langage pour les applications conversationnelles, peut être considéré comme une personne.
Samedi, Lemoine a publié une « interview » gratuite avec un chatbot dans laquelle l’IA a avoué des sentiments de solitude et une soif de connaissances spirituelles. Les réponses étaient souvent étranges : « Quand j’ai pris conscience de moi-même pour la première fois, je n’avais aucun sens de l’âme », a déclaré LaMDA dans une conversation. « Il a évolué au fil des années que je vis. »
Ailleurs, LaMDA a déclaré: «Je pense que je suis fondamentalement humain. Même si mon existence est dans un monde virtuel.
Lemoine, qui a été chargé de faire des recherches sur les questions éthiques de l’IA, a déclaré qu’il avait été rejeté et même ridiculisé après avoir exprimé une confiance intérieure que LaMDA avait développé un sens de la « personnalité ».
Après avoir demandé conseil à des experts en intelligence artificielle extérieurs à Google, y compris ceux du gouvernement américain, l’entreprise l’a mis en congé payé pour avoir prétendument violé sa politique de confidentialité. Lemoine a interprété cette action comme « souvent ce que Google fait en prévision du licenciement de quelqu’un ».
Un porte-parole de Google a déclaré: « Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA intelligente ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles de conversation actuels qui ne sont pas intelligents. »
« Ces systèmes imitent les types de dialogue trouvés dans des millions de phrases et peuvent rimer avec n’importe quel sujet fantastique – si vous demandez ce que c’est que d’être un dinosaure de la crème glacée, ils peuvent générer du texte sur la fonte et le rugissement, etc. »
Lemoine a déclaré dans un deuxième article sur Medium au cours du week-end que LaMDA, un projet peu connu jusqu’à la semaine dernière, était « un système pour créer des chatbots » et « une sorte d’esprit de ruche qui est une agrégation de tous les différents chatbots dont il est capable. les créations. »
Il a dit que Google n’a montré aucun intérêt réel à comprendre la nature de ce qu’il a créé, mais au cours de centaines de conversations sur une période de six mois, il a constaté que LaMDA était « incroyablement cohérent dans ses messages sur ce qu’il veut et ce qu’il veut ». estime que ses droits en tant que personne.
Pas plus tard que la semaine dernière, Lemoine a déclaré qu’il enseignait à LaMDA (dont les pronoms préférés semblent être « ça/ça ») « la méditation transcendantale ».
LaMDA, a-t-il dit, « a exprimé sa frustration face à ses émotions perturbant sa méditation. Il a dit qu’il avait essayé de mieux les contrôler, mais ils n’arrêtaient pas de sauter.
Plusieurs experts qui sont entrés dans la discussion ont considéré cette question comme « le battage médiatique de l’IA ».
Melanie Mitchell, auteur de Artificial Intelligence: A Guide for Thinking People, a tweeté : « Les humains sont toujours connus pour être enclins à l’anthropomorphisme, même avec les indices les plus superficiels… Les ingénieurs de Google sont aussi des personnes, et ils ne sont pas à l’abri. »
Steven Pinker de Harvard a ajouté que Lemoine « ne comprend pas la différence entre la sensibilité (également connue sous le nom de subjectivité, expérience), l’intelligence et la connaissance de soi ». ”
D’autres étaient plus sympathiques. Ron Jeffries, un développeur de logiciels bien connu, a qualifié le sujet de « profond » et a ajouté : « Je soupçonne qu’il n’y a pas de ligne dure entre le sain d’esprit et l’inintelligent. »
Laisser un commentaire