Un homme a battu l’IA dans un jeu de go… avec un ordinateur

Un homme a battu l’IA dans un jeu de go… avec un ordinateur

Le joueur humain parvient à vaincre l’une des meilleures IA du jeu grâce à une vulnérabilité découverte par une autre IA.

Un joueur de go amateur mais très expérimenté a battu un système d’intelligence artificielle très puissant. Cet exploit a été rendu possible par une vulnérabilité découverte par un autre ordinateur, selon The Verge. Profitant de cet inconvénient, le joueur américain Kellin Pelrin a réussi à vaincre le système KataGo , remportant 14 matchs sur 15 sans autre aide de son allié informatique. C’est l’une des très rares victoires humaines depuis AlphaGo en 2016 qui a contribué à ouvrir la voie à la frénésie actuelle de l’IA. Cela montre également que même les algorithmes d’IA les plus avancés peuvent avoir des angles morts.

Un joueur humain parvient à battre l’un des meilleurs jeux d’IA de tous les temps

La victoire de Kellin Pelrin a été rendue possible par la société de recherche spécialisée FAR AI, qui a développé un programme pour identifier les failles de KataGo. Après avoir joué à un million de parties, ce logiciel a pu trouver une faille qu’un joueur humain raisonnablement qualifié pourrait exploiter. Ce n’est « pas exactement trivial, mais ce n’est pas non plus très difficile » à maîtriser, a déclaré Kellin Pelrin. L’homme a utilisé la même méthode pour vaincre Leela Zero, une autre Go-AI très avancée.

Voici comment cela fonctionne : Le but est de créer une grande « boucle » de rochers pour entourer un groupe d’adversaires, puis de distraire l’ordinateur en faisant des mouvements vers d’autres zones du plateau. Même lorsque son groupe était presque encerclé, l’IA n’a pas remarqué cette stratégie. « Ce serait assez facile à repérer pour un humain », a déclaré Kellin Pelrin lorsque les rochers environnants sont clairement visibles sur le tableau.

grâce à une vulnérabilité découverte par une autre intelligence artificielle

Cette faille démontre que les systèmes d’IA ne peuvent pas « penser » au-delà de leur apprentissage. Ensuite, ils font souvent des choses que les gens pensent complètement stupides. Nous avons déjà vu cela avec des chatbots comme Microsoft sur leur moteur de recherche Bing. Bien que le système soit assez bon pour des tâches répétitives simples comme tracer un itinéraire, il crache de fausses informations, réprimande les utilisateurs pour perdre du temps et présente même un comportement « déséquilibré » – probablement en raison du modèle sur lequel il a été formé.

Lightvector, le développeur de KataGo, est probablement au courant de cette vulnérabilité, que les joueurs exploitent depuis des mois. Dans un post GitHub , la société explique qu’elle travaille sur la correction de plusieurs types d’attaques de ce type.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *