Les robots d’Aldebaran, avec Rodolphe Gelin
Rodolphe Gelin, directeur de la recherche, nous décrit les technologies qui entrent en jeu dans la conception du robot Aldebaran. Qu’est-ce qu’un robot intelligent comme le robot Pepper et le robot Romeo ?
Une interview tirée du webdoc « 2101, sciences & fiction ».
Réalisation : Patrick Chiuzzi
Production : Universcience, Centre de recherche astrophysique de Lyon, C Productions Chromatiques
Année de production : 2016
Durée : 14min55
Accessibilité : sous-titres français
Les robots d’Aldebaran, avec Rodolphe Gelin
"2101, sciences et fiction"
"Les robots d'Aldebaran"
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Le mouvement est ce qui différencie un robot de tout autre objet intelligent, type PC, tablette.
Ce mouvement est réalisé par des moteurs, généralement des moteurs électriques sur ces robots-là.
Le moteur électrique tourne très vite.
Donc, entre le moteur et l'articulation du coude du robot, on va mettre un ensemble de réducteurs, des engrenages qui transformeront le mouvement d'un moteur qui tourne vite mais qui développe peu de force en le mouvement de l'articulation qui ira moins vite, mais qui aura la force nécessaire pour soulever un bras ou l'objet porté par le bras.
C'est comme une boîte de vitesses dans une voiture.
Entre le moteur et les roues, une boîte de vitesses transforme un moteur qui tourne très vite en des roues qui tournent lentement mais arrachent la voiture de sa gravité.
"Pepper"
Certaines parties de la robotique sont très inspirées du médical et même appliquées dans le domaine du médical.
Avec ces robots, on n'est pas dans ces technologies-là, mais sur des technologies plus classiques de la mécanique qui viennent, par exemple, de l'automobile ou de l'horlogerie.
Les pignons qu'on voit quand on ouvre une montre, c'est le même principe dans les actionneurs d'un robot.
On essaye de faire des matières légères, pas chères et qui ne font pas de bruit.
Il y a beaucoup de plastique.
On a beaucoup travaillé sur des engrenages en plastique, ce qui, mécaniquement, n'est pas toujours conseillé, mais on a dû trouver le compromis.
L'engrenage métallique utilisé dans les montres est très rigide.
Il n'y a pas beaucoup de jeu entre les dents des engrenages, donc il est de meilleure qualité, plus facile à faire.
L'industrie existe depuis longtemps, mais il peut être bruyant quand il tourne plus vite.
L'engrenage plastique coûte moins cher, est plus facile à fabriquer et il est moins bruyant.
Donc, on fait un savant dosage de certains engrenages en métal, là où on a besoin de beaucoup d'effort, et d'engrenages en plastique, dans les parties où on a besoin de tourner vite mais sans bruit.
"Nao"
Robot Nao.
-Bonjour.
Je m'appelle Nao.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Ces robots sont électriques.
Pepper a un stock de batteries dans sa base, au-dessus de ses roues et il a à peu près 10 à 12 heures d'autonomie.
Ça dépend de ce qu'il fait de ses journées.
S'il reste sans bouger à écouter ce qui se passe, il restera plus longtemps.
S'il se promène toute la journée dans l'appartement...
L'ordre de grandeur, c'est 10 à 12 heures.
Quand il est à bout de ses batteries, il est capable d'aller automatiquement retrouver un pod de rechargement, une station sur laquelle il va se "docker", se clamper pour se recharger.
Robot Pepper.
-Salut.
Bienvenue à l'atelier.
Bonjour.
Je m'appelle Pepper.
Je suis bien content de te rencontrer.
Je souhaite partager avec toi une musique que j'apprécie.
Est-ce que ça te tente ?
Femme.
-Non.
J'aimerais parler.
Robot Pepper.
-Non ?
Bon, bon...
Une autre fois, peut-être, alors.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Tout ce qui fait que le robot peut réfléchir, être intelligent, c'est sa façon de percevoir l'environnement.
S'il ne perçoit rien, il ne pourra pas réfléchir.
Le point de départ de sa réflexion et de son action, c'est la perception.
Si le robot voit mal, entend mal, il ne pourra pas réfléchir ni agir.
Femme.
-Qui sont tes parents ?
Robot Pepper.
-Tous les employés d'Aldebaran sont mes parents.
Femme, puis robot Pepper.
-Où es-tu ?
-En face de toi.
Femme, puis robot Pepper.
-Quel âge as-tu ?
-Je ne dis jamais mon âge.
Il change tout le temps.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Alors, ce robot-là, Pepper...
D'abord, il a des capteurs proprioceptifs sur chacune de ses articulations pour qu'il évalue son propre état, sa propre position, mais aussi des capteurs qui mesurent ce qui se passe à l'extérieur, des capteurs dits extéroceptifs.
On a des capteurs de contact, si on se cogne dans ses jambes.
Des capteurs lasers lui permettent de détecter des objets au ras du sol pour éviter les obstacles.
Il a des micros pour écouter quand on lui parle, des caméras pour regarder autour de lui et un capteur 3D qui lui permet d'évaluer la position d'un être humain devant lui, principalement.
Femme.
-Quelle est ta chanson préférée ?
Robot Pepper.
-J'aime la musique mais je ne sais pas encore chanter.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Un capteur 3D est un capteur qui donne la distance entre le capteur et l'objet qui est en face de lui.
À la différence d'une caméra en 2D, dans une image, à chaque endroit, vous avez juste la couleur du pixel, avec un capteur 3D, vous avez la couleur du pixel, du point que vous regardez, mais aussi la distance entre la caméra et l'objet que vous regardez.
Ça permet d'évaluer la distance, la proximité entre le robot et un objet ou la personne qui est en face de lui.
C'est très utile car ça permet de détourer facilement une personne.
Ça permet au robot de distinguer la photo de quelqu'un de quelqu'un.
Car nous ne sommes pas plats, mais en épaisseur.
Avec ce capteur-là, le robot peut instantanément dire qu'il a en face de lui la photo d'une personne ou une vraie personne.
Femme.
-Bonjour, Pepper.
Robot Pepper.
-Salut.
Bienvenue à l'atelier.
Bonjour.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Sur Pepper, par exemple, on a mis les micros au-dessus de sa tête.
Ce sont des micros directionnels qui permettent au robot de focaliser son attention sur la personne qui lui parle.
C'est très utile car dans un environnement réaliste comme ici, il y a un bruit de fond, des gens qui parlent, regardent la télé, donc il ne faut pas que le robot écoute tout de la même façon.
Avec ces micros-là, il peut focaliser son attention sur la personne qui lui parle.
Là, Pepper a détecté que je parlais.
Sa caméra me fixe et va diriger son audition vers moi, car je dois être l'unique centre de son attention.
Autour de lui, sur sa base, il a des capteurs ultrasons et des lasers qui lui permettent d'estimer la distance entre lui et les objets autour.
Ça peut lui permettre, pour l'instant, surtout d'éviter les obstacles, de s'approcher, quand il vous parlera, à une distance raisonnable, qui respecte votre intimité et lui permet de bien échanger avec vous, et quand il doit faire des plus grands déplacements, d'éviter des meubles sur le chemin.
À terme, on voudrait utiliser ces capteurs, les travaux sont en développement dans nos laboratoires de recherche, pour cartographier l'environnement.
En se promenant, le robot construit un plan de son environnement pour être capable de se balader automatiquement d'une pièce à l'autre.
Robot Nao.
-Je vais venir avec toi.
Si je suis trop rapide, tu peux m'arrêter en me touchant la tête.
Tiens, prends ma main.
Femme, puis robot Nao.
-C'est parti.
-J'adore quand tu me tiens la main.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-On utilise souvent ce terme anglais, "computer processing unit", je ne suis pas sûr du terme, d'ailleurs, qui est logé dans sa tête et qui est l'équivalent d'un ordinateur logé dans son cerveau.
L'analogie est tout à fait légitime.
Toutes les informations issues des capteurs extéroceptifs, qui mesurent l'extérieur, mais aussi des capteurs sur le robot lui-même, de position des articulations, remontent au cerveau.
C'est le cerveau qui va, à partir de tout ça, décider du geste le plus approprié pour le robot.
On arrive à faire comme l'être humain : le cerveau au plus près des capteurs fondamentaux permettant de percevoir.
Chez nous, c'est les oreilles et les yeux.
Pareil pour le robot.
La difficulté, après, comme dans l'être humain, il faut que les ordres qui viennent du cerveau, issus de la réflexion faite sur les capteurs, descendent vers tous les membres, les moteurs.
À ce moment-là, on a, comme notre moelle épinière, toute cette information d'ordres qui descend dans le cou du robot et qui arrosera toutes ses articulations.
On a aussi reproduit le fonctionnement de notre moelle épinière qui diffuse vers des nerfs qui envoient les ordres et ramènent les informations de tout ce que nos capteurs de corps réussissent à récupérer.
Tiens.
Prends cet objet.
"Roméo"
Robot Roméo.
-Donne-moi quelque chose.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Voilà.
Robot Roméo.
-J'analyse ça.
Qu'est-ce que c'est ?
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-C'est une bouteille d'eau.
Robot Roméo.
-OK.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Rends-moi la bouteille.
Robot Roméo.
-Prends-le.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Merci.
Robot Roméo.
-C'est important de s'hydrater pour les personnes âgées.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Merci, Roméo.
Nos robots sont dotés d'un certain niveau d'intelligence artificielle.
Aujourd'hui, quand le robot reconnaît votre visage, il met en œuvre des fonctions qu'il y a 10 ans, on rangeait dans l'intelligence artificielle.
Aujourd'hui, ce sont des fonctions de base.
On ne voit plus d'intelligence artificielle dans le fait qu'il reconnaît mon visage, m'appelle par mon prénom, reconnaît les mots.
Aujourd'hui, ce n'est pas considéré comme de l'intelligence artificielle mais il y a peu, ça l'était.
Aujourd'hui, l'intelligence artificielle se focalise sur des questions de décision, de compréhension du contexte et sur des fonctions d'apprentissage.
En effet, le robot peut apprendre spontanément.
Un robot comme celui-là, vous lui mettez la main dans le feu, il ne va pas s'en apercevoir.
Il n'a pas de capteur pour percevoir qu'il se brûle.
Si on ne dit pas : "Quand tu te brûles, tu retires ta main", il faut qu'il le fasse, donc certains laboratoires...
Notre laboratoire d'intelligence artificielle travaille exactement là-dessus, sur la robotique développementale où le robot a pour consigne d'apprendre de son environnement.
Un enfant, en général, vous n'avez pas à lui dire qu'il faut apprendre.
Il a ce mécanisme de curiosité, de spontanéité d'apprentissage qui est intégré en lui dès la naissance.
On leur apprend à mieux apprendre, mais cette mécanique d'apprentissage existe chez l'homme.
Il faut la mettre dans le robot.
Femme.
-Tu parles d'autres langues ?
Robot Pepper.
-Je parle français, anglais et japonais.
Femme.
-Parle anglais.
Robot Pepper.
-OK.
Let's speak English.
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Si on peut lui dire 15 mots, vous avez 15 réactions à prévoir pour ces mots.
Si le robot peut rapporter des millions de mots, il faut prévoir les millions de réactions possibles.
Arrive cette partie intelligence artificielle qui va se loger dans le dialogue pour que le robot puisse interpréter les mots qui lui sont dits et prendre les bonnes décisions relatives à ce qu'il a compris des phrases prononcées devant lui.
Robot Roméo.
-Que veux-tu que je fasse ?
Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Regarde à gauche.
Pas mal.
Il faut que les robots soient connectés au monde pour agrandir leurs compétences, aller chercher des services à l'extérieur.
Quand vous demandez une explication, il peut aller voir sur un moteur de recherche.
Pour démultiplier la puissance de ces robots, leur connectivité au reste du monde numérique est indispensable.
Ça pose un problème qu'on voit déjà apparaître avec les Smartphones, c'est que le robot récupère des tas d'informations sur nous et va aller les mettre sur des serveurs pour en extraire la quintessence.
Donc là, il y a quelque chose à quoi il faut veiller.
Les données que le robot récupérera et partagera sur des serveurs, que va-t-il en être fait ?
Est-on d'accord et conscient de ces données qui partent vers l'extérieur ?
Est-on d'accord avec l'usage qui en sera fait ?
Tant que c'est pour améliorer mon robot, je serai content.
Ce serait bien que, ce que le robot apprend avec moi, d'autres robots en profitent.
Ça signifie que la compétence que je dispense à mon robot, suis-je prêt à la partager et inversement ?
Il faudra...
Robot puis Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Je dois bientôt recharger ma batterie.
-Très bien.
Leur mission principale est d'obéir aux ordres donnés.
Si vous ne donnez jamais un ordre à un robot de vous désobéir, de vous débarrasser d'un être humain...
Robot puis Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics.
-Je m'éteins, maintenant.
-Très bien.
Si vous ne lui donnez pas l'ordre de faire du mal à l'humanité, de prendre le pouvoir sur elle, il n'a pas de raison spontanée de le faire.
Il ne fait qu'obéir aux ordres.
Tout dépend des ordres donnés.
Le risque, c'est qu'un homme dise au robot : "Fais quelque chose de mal."
"SF"
Ce n'est pas de la science-fiction de dire que l'homme est mauvais.
Ce sont des choses qui arrivent.
Ou que l'homme se trompe aussi.
Peut-être que ceux qui ont programmé Hal dans "2001 : l'Odyssée de l'espace" n'ont pas mesuré les conséquences de la programmation qu'ils avaient faite.
Pour nous, ces fictions-là doivent être des espèces d'alertes qui nous disent : "Attention, quand vous programmez quelque chose, mesurez-en bien les conséquences."
C'est pourquoi des gens travaillent du point de vue de la recherche sur comment évaluer, tester de façon systématique le comportement de systèmes de plus en plus complexes avant de les lancer.
Ça arrivera aussi.
On peut faire un bug quand on développe un programme informatique, mais avant de diffuser des milliers de robots avec ce bug, on fera beaucoup de tests avant de le mettre dans la nature.
De la même façon que les gens qui font des médicaments font des milliers d'heures de tests avant de le mettre dans la nature pour être sûr qu'il n'y a pas d'effet indésirable.
On fera pareil avec nos robots.
On testera très longtemps pour être sûr qu'il n'y a pas d'effet indésirable.
Si on en découvre dans la nature, on fera des mises à jour, comme c'est fait aujourd'hui sur nos téléphones, pour corriger ça au plus vite.
2101, sciences et fiction
Conception et réalisation : Patrick Chiuzzi
Avec la voix de Johanna Rousset
Avec la participation de Rodolphe Gelin, directeur de la recherche, Aldebaran Robotics
Images bande dessinée 2101 : Guillaume Chaudieu
Développeur : Thomas Goguelin
Image et son : Patrick Chiuzzi et Robin Chiuzzi
Enregistrement voix : Studio Ghümes
Musique : Ludovic Sagnier
Montage : Yann Brigant
Chromatiques
Producteur : Patrick Chiuzzi
Assistante réalisateur : Cécile Taillandier
Assistante de production : Élodie Henry
Universcience
Rédaction en chef : Isabelle Bousquet
Production : Isabelle Péricard
Responsable des programmes : Alain Labouze
Avec la participation d’Amcsti
Remerciements : Eloïse Bertrand, Alice Chiuzzi, Agate Chiuzzi, Delphine Boju, la société Aldebaran Robotics, Aurore Chiquot, Romain Mascagni, Mathieu Gayon
Avec le soutien d’Investissements d’Avenir et la participation du Centre National de la Cinématographie et de l’image animée
© C Productions Chromatiques / Universcience / Centre de recherche astrophysique de Lyon / 2016
Réalisation : Patrick Chiuzzi
Production : Universcience, Centre de recherche astrophysique de Lyon, C Productions Chromatiques
Année de production : 2016
Durée : 14min55
Accessibilité : sous-titres français