Google licencie un chercheur qui prétend que l’IA LaMDA est consciente
Google a licencié un ingénieur qui a déclaré que l’intelligence artificielle de LaMDA était consciente. Des revendications qui ont été très mal accueillies par la communauté des chercheurs.
Blake Lemoine, un ingénieur avec 7 ans d’expérience chez Google, a été licencié , selon Alex Kantrowitz dans la newsletter Big Technology. Cette nouvelle devait être révélée personnellement par Blake Lemoine lors de l’enregistrement du podcast du même nom, dont la sortie n’a pas encore été publiée. Cependant, Google a confirmé l’information à Engadget.
Google licencie un ingénieur qui prétend que l’intelligence artificielle LaMDA a pris conscience
Blake Lemoine, qui était jusqu’à récemment membre de l’équipe Responsible AI, a contacté le Washington Post le mois dernier pour signaler que l’un des projets du géant américain de l’IA semblait avoir une conscience. L’intelligence artificielle en question, LaMDA, pour un modèle de langage pour les applications conversationnelles, a été introduite par Google l’année dernière. Il s’agissait de permettre aux ordinateurs de mieux reproduire les conversations ouvertes. Blake Lemoine était convaincu que LaMDA avait une conscience, mais doutait aussi de la possibilité qu’elle ait une âme. Et pour ne laisser aucun doute sur ces déclarations, il a même déclaré à Wired ce qui suit : « Je suis profondément convaincu que LaMDA est une personne. »
Après avoir fait ses déclarations à la presse, très probablement sans l’autorisation de son employeur, Blake Lemoine a été placé en congé administratif. Google a également déclaré publiquement à plusieurs reprises que son IA n’était en aucun cas consciente.
Des déclarations très mal accueillies par la communauté des chercheurs
Plusieurs membres de la communauté de recherche en IA n’ont pas tardé à prendre la parole contre Blake Lemoine. Margaret Mitchell, qui a été licenciée de Google après avoir dénoncé le manque de diversité de l’entreprise, a tweeté que des systèmes comme LaMDA ne développent pas d’intentions, ils « reproduisent la façon dont les gens expriment leurs intentions communicatives sous forme de textes. Avec nettement moins de tact, Gary Marcy a qualifié les déclarations de Blake Lemoine de « conneries dans un bar ».
La déclaration de Google à Engadget se lit comme suit : « Conformément à nos principes d’IA, nous prenons le développement de l’IA très au sérieux et nous nous engageons à innover de manière responsable. LaMDA a fait l’objet de 11 examens détaillés différents et il y a quelques mois, nous avons publié un article détaillant les travaux sur ce développement critique. Si un employé a des inquiétudes au sujet de notre travail, comme Blake Lemoine l’a fait, nous y répondons avec sagesse. Nous avons conclu que les affirmations de Blake Lemoine sur la conscience de LaMDA sont totalement infondées et nous avons travaillé avec lui pour comprendre cela pendant plusieurs mois. Ces échanges se sont déroulés dans le cadre de notre culture ouverte, qui nous aide à innover de manière responsable. Malheureusement, malgré les discussions sur cette question, Blake Lemoine a décidé d’enfreindre les règles applicables de l’entreprise, notamment la nécessité de protéger les informations sur les produits.
Laisser un commentaire