L’intelligence artificielle plus forte que les humains dans un jeu vidéo multi-joueurs
Publié le - par le blob avec l'AFP
Si vous êtes un professionnel du jeu vidéo, vous aurez désormais fort à faire avec l'intelligence artificielle ! Une équipe de programmeurs d’une société britannique a en effet réussi à former des « agents » autonomes à un jeu de tir à la première personne multi-joueurs, qui sont devenus si bons qu’ils ont battu des humains, une première.
L’exploit a valu à l’équipe de DeepMind, filiale de la maison-mère de Google, Alphabet, une publication dans la revue Science le 30 mai 2019. Jusqu’ici, les ordinateurs avaient battu les humains dans des jeux, mais en face à face, un contre un : Deep Blue a battu Garry Kasparov aux échecs en 1997, et AlphaGo de Google a battu le grand maître sud-coréen du jeu de go Lee Se-Dol en 2016. Les jeux multi-joueurs étaient une toute autre affaire, car ils requièrent une compétence humaine complexe : la coopération et le travail en équipe, dans des environnements complexes.
Les programmeurs, menés par Max Jaderberg, ont utilisé une version modifiée du jeu Quake III Arena, sorti pour la première fois en 1999 et qui reste populaire dans le monde de l’e-sport. Le mode choisi était « Capture the Flag », ou capture du drapeau. Les joueurs doivent saisir le drapeau de l’équipe adverse tout en protégeant le leur. Cela les oblige à attaquer et à défendre en même temps, ce qui requiert de la stratégie. Les agents se sont entraînés seuls sur le jeu, puis ils ont affronté des testeurs professionnels de jeux vidéos (humains). « Même après 12 heures de pratique, les testeurs humains ne réussissaient à gagner que 25 % des parties contre l’équipe d’agents », rapportent les auteurs de l’étude. La performance des machines est restée supérieure même lorsque leur temps de réaction a été ralenti jusqu'au niveau humain.
Pas d’usage militaire
Pour former leurs agents autonomes, les programmeurs ont eu recours à ce qui s’appelle l’apprentissage par renforcement. « Au départ, ils ne savaient rien du jeu, ils agissaient de façon complètement aléatoire, ils se cognaient dans tous les coins », explique Max Jaderberg à l’AFP. Les programmeurs leur ont seulement donné un objectif : capturer le drapeau. Les agents ont dû développer leur propre système de récompense interne pour chaque action nécessaire à l’obtention du résultat. Une autre innovation a consisté à entraîner plusieurs agents ensemble, et non séparément. Les chercheurs se sont rendus compte qu’ils progressaient beaucoup plus vite en groupe. Les programmeurs ont aussi inculqué à leurs agents « deux vitesses de pensée », du nom du livre du psychologue et prix Nobel d’économie Daniel Kahneman. « Une partie de l’agent réagit très vite et met à jour ses propres convictions très rapidement, tandis qu’une autre partie de l’agent les met à jour plus lentement. Ces deux types de convictions s’influencent mutuellement et façonnent la perception du monde de l’agent », explique Max Jaderberg.
L’équipe de DeepMind préfère ne pas faire de commentaire quand on l’interroge sur d’éventuelles utilisations militaires de ce type d’intelligence artificielle. DeepMind a déclaré comme principe de ne jamais travailler avec les secteurs militaires ni de la surveillance. Le mot « tirer » n’apparaît même pas dans l’article publié dans Science (les auteurs préfèrent écrire que les agents pointent un laser sur leurs adversaires). Mais l’équipe reconnaît que ces intelligences artificielles pourraient être utilisées pour résoudre des problèmes du monde réel.