Thierry Bardy , tags : Intelligence artificielle
DeepMind, filiale du groupe californien, a développé des algorithmes s’inspirant du cerveau humain. Plus complexe à modéliser que les échecs, le go était le dernier jeu de plateau où l'homme battait la machine.
C’est une nouvelle frontière de
franchie pour l’intelligence artificielle : vingt ans presque jour pour
jour après le premier match entre l’ordinateur Deep Blue d’IBM et le
champion du monde d’échecs Garry Kasparov (lire ci-dessous), le groupe
américain Google vient d’annoncer qu’un système conçu par une de ses
filiales, DeepMind, avait réussi à battre un joueur professionnel de go.
L’exploit, réalisé dans le plus grand secret au mois d’octobre 2015,
fait la une du dernier numéro de la revue « Nature », publié ce jeudi.
Lors de la rencontre, le système d’intelligence artificielle conçu par
DeepMind, baptisé AlphaGo, a battu par cinq victoires à zéro un
professionnel de 35 ans, Fan Hui, considéré comme le meilleur joueur de
go d'Europe.
Acquise par Google en 2014, la start-up
britannique DeepMind, fondée trois ans auparavant, s’est spécialisée
dans les techniques d’apprentissage automatique (« deep learning ») et
les réseaux de neurones artificiels (« neural networks »). Ces
algorithmes s’inspirent du fonctionnement du cerveau humain pour
résoudre des problèmes sans apprentissage préalable. A la pointe de la
recherche en informatique, ils ont déjà permis des avancées majeures
dans la reconnaissance automatique d’images ou de la parole.
« Space Invaders »
Il
y a tout juste un an, l’entreprise (rebaptisée Google DeepMind après le
rachat) s’était déjà fait remarquer en utilisant les réseaux de
neurones pour apprendre à un ordinateur à jouer à 49 jeux vidéo des
années 1980, comme « Space Invaders », et à atteindre un niveau
supérieur aux humains pour 22 d’entre eux. Il faut dire que l’un des
trois fondateurs de DeepMind, Demis Hassabis, est passionné par le jeu :
jeune prodige des échecs (il a été numéro 2 mondial des moins de 14
ans), il a ensuite développé des jeux vidéo avant de reprendre des
études de neurosciences. « Les jeux sont une plate-forme parfaite
pour développer des algorithmes d’intelligence artificielle rapidement
et efficacement », a-t-il indiqué sur le blog de Google. « A terme, nous voulons appliquer ces méthodes pour résoudre les problèmes du monde réel. »
Le choix d’utiliser le jeu de go pour montrer la puissance des
outils de « deep learning » de Google ne doit rien au hasard : inventé
en Chine plusieurs siècles avant l’ère chrétienne, le go a longtemps
représenté un défi insurmontable pour les informaticiens spécialisés
dans les jeux de stratégie. La taille de la grille (19x19) et le
principe même du jeu (les deux joueurs se livrent des combats simultanés
dans différentes portions du plateau pour occuper le plus d’espace
possible), en multipliant les possibilités de coups, rendent le go bien
plus difficile à modéliser que les dames ou les échecs.
Prochain match en mars 2016
« Jusqu’à présent, les meilleurs programmes pouvaient battre des joueurs amateurs, mais perdaient face à des professionnels »,
explique Bruno Bouzy, chercheur en intelligence artificielle et maître
de conférence à l’université Paris-Descartes. Pour remporter le match
contre Fan Hui, AlphaGo combinait les réseaux neuronaux et une technique
déjà utilisée pour le jeu de go par ordinateur, appelée MCTS (« Monte
Carlo Tree System »). Il bénéficiait aussi d'une importante puissance de
calcul - l’article de « Nature » évoque plus d’un millier de
processeurs (CPU) en réseau. Et
L’équipe
de DeepMind ne compte pas s’arrêter là : elle a déjà annoncé qu’AlphaGo
allait affronter en Corée, en mars prochain, Lee Sedol, considéré
depuis dix ans comme le meilleur joueur du monde. Un événement qui, en
Asie, devrait avoir autant de retentissement que le match Deep
Blue-Kasparov en son temps.
Aucun commentaire:
Enregistrer un commentaire