L’uomo ha battuto l’intelligenza artificiale in un gioco di go… con un computer

L’uomo ha battuto l’intelligenza artificiale in un gioco di go… con un computer

Il giocatore umano riesce a sconfiggere una delle migliori IA del gioco grazie a una vulnerabilità scoperta da un’altra IA.

Un giocatore amatoriale ma molto esperto di Go ha battuto un potentissimo sistema di intelligenza artificiale. Questa impresa è stata resa possibile da una vulnerabilità scoperta da un altro computer, secondo The Verge. Approfittando di questo svantaggio, il giocatore americano Kellin Pelrin è riuscito a sconfiggere il sistema KataGo , vincendo 14 partite su 15 senza ulteriore aiuto dal suo alleato informatico. Questa è una delle pochissime vittorie umane da AlphaGo nel 2016 che ha contribuito a spianare la strada all’attuale frenesia dell’IA. Mostra anche che anche gli algoritmi di intelligenza artificiale più avanzati possono avere punti ciechi.

Il giocatore umano riesce a battere uno dei migliori giochi di intelligenza artificiale di sempre

La vittoria di Kellin Pelrin è stata resa possibile dalla società di ricerca specializzata FAR AI, che ha sviluppato un programma per identificare i difetti in KataGo. Dopo aver giocato a un milione di giochi, questo software è stato in grado di trovare un difetto che un giocatore umano ragionevolmente abile potrebbe sfruttare. Non è “esattamente banale, ma non è nemmeno molto difficile” da padroneggiare, ha detto Kellin Pelrin. L’uomo ha usato lo stesso metodo per sconfiggere Leela Zero, un’altra Go-AI altamente avanzata.

Ecco come funziona: l’obiettivo è creare un grande “anello” di rocce per circondare un gruppo di avversari e quindi distrarre il computer spostandosi in altre aree del tabellone. Anche quando il suo gruppo era quasi circondato, l’IA non ha notato questa strategia. “Sarebbe abbastanza facile da individuare per un essere umano”, ha detto Kellin Pelrin quando le rocce circostanti sono chiaramente visibili sul tabellone.

grazie a una vulnerabilità scoperta da un’altra intelligenza artificiale

Questo difetto dimostra che i sistemi di intelligenza artificiale non possono “pensare” oltre il loro apprendimento. Poi spesso fanno cose che la gente pensa siano completamente stupide. Lo abbiamo già visto con chatbot come Microsoft sul loro motore di ricerca Bing. Sebbene il sistema sia abbastanza bravo in semplici attività ripetitive come tracciare un percorso, sputa informazioni false, rimprovera gli utenti per aver perso tempo e mostra persino un comportamento “squilibrato”, molto probabilmente a causa del modello su cui è stato addestrato.

Lightvector, lo sviluppatore di KataGo, è probabilmente a conoscenza di questa vulnerabilità, che i giocatori sfruttano da mesi. In un post su GitHub , la società spiega che sta lavorando per risolvere diversi tipi di attacchi di questo tipo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *