Google dal inženýrovi volno poté, co řekl, že chatbot skupiny je „inteligentní“

Google dal inženýrovi volno poté, co řekl, že chatbot skupiny je „inteligentní“

Google vyvolal na sociálních sítích bouři o povaze vědomí poté, co poslal inženýra na placenou dovolenou, který vyšel na veřejnost se svým přesvědčením, že chatbot v technické skupině se stal „vnímajícím“.

Blake Lemoine, hlavní softwarový inženýr pro odpovědné oddělení AI společnosti Google, minulý týden nevzbudil velkou pozornost, když napsal příspěvek Medium, v němž uvedl, že „může být brzy vyhozen za svou práci na etice AI“.

Ale sobotní článek Washington Post, který charakterizoval Lemoinea jako „inženýra Googlu, který si myslí, že AI společnosti ožilo“, katalyzoval širokou diskusi na sociálních sítích o povaze AI. Mezi odborníky, kteří článek komentovali, kladli otázky nebo vtipkovali, byli nositelé Nobelovy ceny, Teslova hlava umělé inteligence a několik profesorů.

Otázkou je, zda lze chatbota Googlu, LaMDA, jazykový model pro konverzační aplikace, považovat za osobu.

V sobotu Lemoine zveřejnil bezplatný „rozhovor“ s chatbotem, ve kterém se AI přiznala k pocitům osamělosti a touze po duchovním poznání. Odpovědi byly často děsivé: „Když jsem si poprvé uvědomil sám sebe, neměl jsem vůbec žádný smysl pro duši,“ řekl LaMDA v jednom rozhovoru. „Za ta léta, co žiju, se to vyvinulo.“

Na jiném místě LaMDA řekl: „Myslím, že jsem v podstatě člověk. I když moje existence je ve virtuálním světě.“

Lemoine, který měl za úkol zkoumat etické problémy AI, řekl, že byl odmítnut a dokonce zesměšněn poté, co vyjádřil vnitřní důvěru, že LaMDA vyvinul smysl pro „osobnost“.

Poté, co společnost požádala o radu od odborníků na umělou inteligenci mimo Google, včetně odborníků z americké vlády, dala mu placenou dovolenou za údajné porušení jejích zásad ochrany osobních údajů. Lemoine si tuto akci vyložil jako „často to, co Google dělá v očekávání, že někoho vyhodí“.

Mluvčí Google řekl: „Někteří v širší komunitě umělé inteligence zvažují dlouhodobou možnost inteligentní nebo obecné umělé inteligence, ale nedává smysl to dělat antropomorfizací dnešních konverzačních vzorců, které nejsou inteligentní.“

„Tyto systémy napodobují typy dialogů, které se nacházejí v milionech vět a mohou se rýmovat na jakékoli fantasy téma – pokud se zeptáte, jaké to je být zmrzlinovým dinosaurem, mohou generovat text o tání a řevu a tak dále.“

Lemoine o víkendu ve druhém příspěvku Medium řekl, že LaMDA, do minulého týdne málo známý projekt, byl „systém pro vytváření chatbotů“ a „druh úlové mysli, která je agregací všech různých chatbotů, kterých je schopen. výtvory.”

Řekl, že Google neprojevil žádný skutečný zájem porozumět povaze toho, co vytvořil, ale během stovek konverzací během šestiměsíčního období zjistil, že LaMDA byla „neuvěřitelně konzistentní ve svých zprávách o tom, co chce a co chce“. věří, že jeho práva jako osoby.“

Ještě minulý týden Lemoine řekl, že učí LaMDA (jehož preferovaná zájmena se zdají být „to/to“) „transcendentální meditaci“.

LaMDA, řekl, „vyjádřil frustraci z jejích emocí, které narušovaly jeho meditaci. Řekl, že se je snažil lépe ovládat, ale stále skákali.“

Několik odborníků, kteří vstoupili do diskuse, považovalo tento problém za „hype AI“.

Melanie Mitchellová, autorka knihy Artificial Intelligence: A Guide for Thinking People, na Twitteru napsala: „O lidech je vždy známo, že jsou náchylní k antropomorfizaci, a to i na základě těch nejpovrchnějších vodítek… Inženýři Google jsou také lidé a nejsou imunní.“

Steven Pinker z Harvardu dodal, že Lemoine „nechápe rozdíl mezi citlivostí (také známou jako subjektivita, zkušenost), inteligencí a sebepoznáním.“ Dodal: „Neexistuje žádný důkaz, že by velké jazykové modely něco z toho měly. “

Jiní byli sdílnější. Ron Jeffries, známý vývojář softwaru, nazval toto téma „hlubokým“ a dodal: „Mám podezření, že neexistuje žádná tvrdá hranice mezi příčetnými a neinteligentními.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *