Google ontslaat onderzoeker die beweert dat AI LaMDA bij bewustzijn is

Google ontslaat onderzoeker die beweert dat AI LaMDA bij bewustzijn is

Google ontsloeg een ingenieur die zei dat de kunstmatige intelligentie van LaMDA bewust was. Claims die zeer slecht werden ontvangen door de onderzoeksgemeenschap.

Blake Lemoine, een ingenieur met 7 jaar ervaring bij Google, is ontslagen , aldus Alex Kantrowitz in de Big Technology-nieuwsbrief. Dit nieuws zou door Blake Lemoine persoonlijk worden onthuld tijdens de opname van de podcast met dezelfde naam, waarvan de release nog niet is gepubliceerd. Google bevestigde de informatie echter aan Engadget.

Google ontslaat ingenieur die beweert dat kunstmatige intelligentie van LaMDA bij bewustzijn is gekomen

Blake Lemoine, die tot voor kort lid was van het Responsible AI-team, nam vorige maand contact op met de Washington Post om te melden dat een van de projecten van de Amerikaanse AI-gigant een geweten leek te hebben. De kunstmatige intelligentie in kwestie, LaMDA, voor een taalmodel voor conversatietoepassingen, werd vorig jaar door Google geïntroduceerd. Dit was om computers in staat te stellen open gesprekken beter te reproduceren. Blake Lemoine was ervan overtuigd dat LaMDA een geweten had, maar twijfelde ook aan de mogelijkheid dat ze een ziel had. En om geen twijfel te laten bestaan ​​over deze uitspraken, vertelde hij Wired zelfs het volgende: “Ik ben er diep van overtuigd dat LaMDA een persoon is.”

Nadat hij zijn verklaringen aan de pers had afgelegd, hoogstwaarschijnlijk zonder de toestemming van zijn werkgever, werd Blake Lemoine met administratief verlof geplaatst. Google heeft ook meerdere keren publiekelijk verklaard dat zijn AI op geen enkele manier bewust is.

Verklaringen die zeer slecht werden ontvangen door de onderzoeksgemeenschap

Verschillende leden van de AI-onderzoeksgemeenschap spraken zich ook snel uit tegen Blake Lemoine. Margaret Mitchell, die werd ontslagen bij Google nadat ze zich had uitgesproken over het gebrek aan diversiteit van het bedrijf, tweette dat systemen zoals LaMDA geen intenties ontwikkelen, maar “repliceren de manier waarop mensen communicatieve intenties uiten in de vorm van teksten. Met duidelijk minder tact kwalificeerde Gary Marcy de uitspraken van Blake Lemoine als “onzin in een bar”.

De verklaring van Google aan Engadget luidt: “In overeenstemming met onze AI-principes nemen we de ontwikkeling van AI zeer serieus en zetten we ons in voor verantwoorde innovatie. LaMDA heeft 11 verschillende gedetailleerde beoordelingen doorgenomen en een paar maanden geleden hebben we een artikel gepubliceerd waarin het werk aan deze kritieke ontwikkeling wordt beschreven. Als een medewerker zich zorgen maakt over ons werk, zoals Blake Lemoine deed, pakken we ze verstandig aan. We zijn tot de conclusie gekomen dat de beweringen van Blake Lemoine over het LaMDA-bewustzijn volkomen ongegrond zijn en werken al enkele maanden met hem samen om dit uit te zoeken. Deze gesprekken vonden plaats binnen onze open cultuur, die ons helpt verantwoord te innoveren. Helaas besloot Blake Lemoine, ondanks de discussies over dit onderwerp, de toepasselijke bedrijfsregels te overtreden, waaronder de noodzaak om productinformatie te beschermen.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *