Człowiek pokonał sztuczną inteligencję w grze w go… za pomocą komputera

Człowiek pokonał sztuczną inteligencję w grze w go… za pomocą komputera

Ludzkiemu graczowi udaje się pokonać jedną z najlepszych sztucznej inteligencji w grze dzięki luce wykrytej przez inną sztuczną inteligencję.

Amator, ale bardzo doświadczony gracz Go pokonał bardzo potężny system sztucznej inteligencji. Według The Verge wyczyn ten był możliwy dzięki luce w zabezpieczeniach wykrytej przez inny komputer. Wykorzystując tę ​​wadę, amerykański gracz Kellin Pelrin zdołał pokonać system KataGo , wygrywając 14 z 15 gier bez dalszej pomocy swojego komputerowego sojusznika. To jedno z nielicznych zwycięstw człowieka od czasu AlphaGo w 2016 roku, które pomogło utorować drogę obecnemu szaleństwu sztucznej inteligencji. Pokazuje również, że nawet najbardziej zaawansowane algorytmy sztucznej inteligencji mogą mieć martwe punkty.

Ludzkiemu graczowi udaje się pokonać jedną z najlepszych gier AI w historii

Zwycięstwo Kellina Pelrina było możliwe dzięki wyspecjalizowanej firmie badawczej FAR AI, która opracowała program identyfikujący wady w KataGo. Po rozegraniu miliona gier to oprogramowanie było w stanie znaleźć lukę, którą mógł wykorzystać odpowiednio wykwalifikowany gracz. „Nie jest to trywialne, ale też niezbyt trudne” do opanowania, powiedział Kellin Pelrin. Mężczyzna użył tej samej metody, aby pokonać Leelę Zero, kolejną wysoce zaawansowaną Go-AI.

Oto jak to działa: Celem jest stworzenie dużej „pętli” kamieni, aby otoczyć grupę przeciwników, a następnie odwrócić uwagę komputera, wykonując ruchy w inne obszary planszy. Nawet gdy jego grupa była prawie otoczona, AI nie zauważyła tej strategii. „Człowiek byłby dość łatwy do zauważenia” — powiedział Kellin Pelrin, gdy otaczające skały są wyraźnie widoczne na planszy.

dzięki podatności wykrytej przez inną sztuczną inteligencję

Ta wada pokazuje, że systemy sztucznej inteligencji nie mogą „myśleć” poza procesem uczenia się. Potem często robią rzeczy, które ludzie uważają za całkowicie głupie. Widzieliśmy to już w przypadku chatbotów, takich jak Microsoft, w ich wyszukiwarce Bing. Chociaż system jest dość dobry w prostych, powtarzalnych zadaniach, takich jak wyznaczanie trasy, wypluwa fałszywe informacje, beszta użytkowników za marnowanie czasu, a nawet wykazuje „niezrównoważone” zachowanie – najprawdopodobniej z powodu szablonu, na którym został przeszkolony.

Lightvector, twórca KataGo, jest prawdopodobnie świadomy tej luki, którą gracze wykorzystują od miesięcy. W poście na GitHubie firma wyjaśnia, że ​​pracuje nad naprawą kilku rodzajów tego rodzaju ataków.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *