Les chercheurs de Deep Mind, une entreprise rachetée par Google l’année dernière, ont réussi à développer un algorithme qui peut apprendre tout seul à jouer à des jeux vidéo classiques sans programmation. Ce logiciel a été baptisé « DQN ».
Spécialisé dans l’intelligence artificielle, Deep Mind de Google a crée un algorithme capable d’apprendre à jouer par lui-même à des jeux vidéo classiques baptisé « Deep Q Network » (DQN).
Les chercheurs de Deep Mind se sont tournés vers un classique des années 1980, l’Atari 2600, pour tester les capacités d’apprentissage de DQN, qui va donc s’appuyer sur le compteur de score.
Selon les résultats de l’étude publiée ce mercredi par Nature, DQN est parvenu à atteindre au moins 75 % du score d’un bon joueur humain, dans vingt-huit des quarante-neuf jeux testés, des jeux vidéo classiques, y compris Space Invaders et Breakout.
Le fondateur de la société rachetée par Google, pour 400 millions de livres en 2014, Demis Hassabis, a déclaré que le but ultime était de créer un ordinateur qui aurait les capacités mentales d’un enfant en bas âge.
« C’est la première fois que quelqu’un a construit un système unique d’apprentissage général. Ce que nous avons créé, c’est un algorithme capable d’apprendre directement de ses expériences, et donc plus proche de la manière dont les humains apprennent, et dont nos cerveaux construisent des modèles. »
M. Hassabis a ajouté que la stratégie principale n’était pas d’inculquer un très grand nombre de réponses en fonction d’un très grand nombre de situations prédéterminées à une machine, comme c’était le cas pour Deep Blue, la première machine ayant dépassé l’homme quand elle a battu le grand maître des échecs Garry Kasparov en 1997.