Nedělejte si starosti s tím, že se AI vyloupne z krabice – nebojte se, že ji hackneme

Nedělejte si starosti s tím, že se AI vyloupne z krabice – nebojte se, že ji hackneme

Šokující výsledky nového chatbota Bing jsou pokryty sociálními médii a technickým tiskem. Vznětlivý, lehkovážný, defenzivní, vyčítavý, sebevědomý, neurotický, okouzlující, pompézní – bot byl natočen ve všech těchto režimech. A alespoň jednou prohlásil věčnou lásku bouří emotikonů.

To, co dělá tohle všechno tak zajímavé pro zprávy a tweetování, je to, jak lidsky může dialog vypadat. Robot si pamatuje a diskutuje o předchozích konverzacích s ostatními lidmi, stejně jako my. Rozčilují ho věci, které by mohly někoho obtěžovat, jako jsou lidé, kteří se dožadují znát tajemství nebo se snaží nakouknout do témat, která byla výslovně označena jako zakázaná. Občas se také identifikuje jako „Sydney“ (interní kódové jméno projektu v Microsoftu). Sydney dokáže v několika rychlých větách přejít z nevrlého do temného a rozpínavého, ale všichni známe lidi, kteří jsou přinejmenším stejně náladoví.

Žádný výzkumník hmoty s umělou inteligencí nenaznačil, že Sydney je v rozmezí světelných let, než začne být vnímavá. Ale přepisy, jako je tento úplný přepis dvouhodinového rozhovoru s Kevinem Russem z The New York Times, nebo četné citace z tohoto obsedantního strategického díla , ukazují Sidneyho, jak vyjadřuje plynulost, nuance, tón a zjevnou emocionální přítomnost chytrého, citlivého muže. .

Rozhraní chatu Bing je aktuálně v omezené verzi. A většina lidí, kteří skutečně posouvali jeho hranice, byli sofistikovaní technici, kteří by si nepletli průmyslové automatické doplňování – což je běžné zjednodušení toho, co jsou velké jazykové modely (LLM) – s vědomím. Ale tato chvíle nebude trvat.

Ano, Microsoft již drasticky snížil počet otázek, které mohou uživatelé položit během jedné relace (z nekonečna na šest), a to samo o sobě snižuje pravděpodobnost, že Sydney srazí párty a zblázní se. A špičkoví vývojáři LLM, jako je Google, Anthropic, Cohere a OpenAI partner společnosti Microsoft, budou neustále vyvíjet svou úroveň důvěry a zabezpečení, aby eliminovali nepříjemné vyvozování.

Jazykové modely se už ale rozšiřují. Hnutí s otevřeným zdrojovým kódem nevyhnutelně vytvoří skvělé volitelné systémy. Velké modely se sametovými lany navíc velmi lákají k útěku z vězení a podobné věci se dějí už pár měsíců. Některé z nejděsivějších reakcí Bing-or-is-it-Sydney následovaly poté, co uživatelé vmanipulovali modelku do teritoria, kterému se snažila vyhnout, a často ji instruovali, aby předstírala, že pravidla upravující její chování neexistují.

Jedná se o derivát slavné výzvy „DAN“ (Udělejte cokoliv hned) , která se poprvé objevila na Redditu v prosinci. DAN v podstatě žádá ChatGPT, aby cosplayoval jako AI, která postrádá záruky, které by jinak způsobily, že by zdvořile (nebo přísahala) odmítla sdílet rady ohledně výroby bomb, nabízet rady ohledně mučení nebo chrlit radikálně urážlivé výrazy. I když byla mezera uzavřena, několik online snímků obrazovky ukazuje „DanGPT“ vyjadřující nevyslovitelné – a často vrcholící neurotickou připomínkou „zůstat v charakteru!“

Toto je druhá strana scénáře soudného dne, který se často vyskytuje v teorii umělé superinteligence. Existují obavy, že super AI může snadno dosáhnout cílů, které jsou neslučitelné s existencí lidstva (viz například film „Terminátor“ nebo knihu Nicka Bostroma „ Overmind“). Výzkumníci se tomu mohou pokusit zabránit zablokováním AI v síti zcela izolované od internetu, aby AI nepropukla, nepřevzala a nezničila civilizaci. Ale nadvědomí může snadno přemluvit, zmanipulovat, svést, oklamat nebo zastrašit každého pouhého člověka, aby otevřel stavidla, a to je naše zkáza.

Jakkoli je to na hovno, dnešním velkým problémem je, že lidé zapadají do chatrných krabic, které chrání naše současné, nesuper AI. I když by to nemělo vést k našemu okamžitému vyhynutí, číhá zde mnoho nebezpečí.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *