Yannick Léo, directeur de la Data Science chez Emerton Data, explique comment les robots vont de plus en plus apprendre à faire des choses comme des humains, en répétant des tâches à l'aide d'algorithmes d'intelligence artificielle.
Interview : Yannick Léo, directeur de la Data Science chez Emerton Data
Est-il choquant que les robots de Tesla présentés récemment aient été en fait, en partie, téléopérés par des humains ?
Non, au contraire, cela témoigne d’une vision futuriste de la robotique. Cette manipulation permet d'entraîner les robots pour qu'ils puissent reproduire les gestes observés. On leur enseigne en quelque sorte en temps réel. Si un opérateur exécute une tâche 100 fois, les données accumulées permettent au robot de reproduire cette tâche avec toutes les variantes observées. C'est une étape d’apprentissage qui contribue à l'évolution de l'intelligence et de l'autonomie des robots.
Quel rapport entre la robotique et la data science ?
La data science fournit les algorithmes qui rendent les robots plus intelligents et adaptables. Elle utilise le machine learning, le deep learning et l’apprentissage par renforcement pour optimiser les mouvements et réactions des robots en situation réelle. Par exemple, les réseaux de neurones que l'on utilise pour des modèles linguistiques comme ChatGPT ou des générateurs d'images s'appliquent aussi aux robots. Ils les aident non seulement à voir et interagir, mais à se mouvoir de manière plus fluide et à accomplir des tâches de plus en plus variées.
Pourquoi pensez-vous que les lunettes connectées pourraient contribuer à l’apprentissage des robots ?
Les lunettes connectées représentent une source de données précieuse, notamment pour Meta, qui pourrait ainsi "voir" et apprendre des mouvements humains au quotidien. Ces lunettes captent la perspective et les interactions humaines, ce qui pourrait un jour être utilisé pour mieux "entendre" et comprendre notre quotidien. Cela permettra potentiellement aux robots de se fondre davantage dans nos environnements en reproduisant des actions humaines de façon plus naturelle.
Monde Numérique :
[0:15] Bonjour Yannick Léo.
Yannick Léo:
[0:16] Bonjour Jérôme Colombat.
Monde Numérique :
[0:18] Vous êtes associé et directeur de la Data Science chez Emerton Data, société de conseil spécialisée dans la transformation des données et l'intelligence artificielle. Alors, on parle beaucoup de robots en ce moment, notamment depuis la nouvelle présentation des robots Optimus de Tesla, avec même une polémique sur la question de savoir s'il s'agit de vrais robots ou pas, puisqu'ils étaient en partie manipulés à distance. Quel est votre avis ?
Yannick Léo:
[0:42] Alors, c'est très intéressant à analyser. Alors, bien sûr, derrière, il y a la patte d'Elon Musk. Il y a un peu l'effet démo qu'on essaye d'éviter dans ces démonstrations qui sont dans des salons, etc. Même qui sont diffusés à large échelle. On se rappelle d'ailleurs qu'il y avait une IA qui était celle de Gemini qui était sortie il y a à peu près un an et demi avec une vidéo d'un canard et forcément elle était un petit peu truquée. L'idée ici de ces démonstrations, ce n'est pas forcément de dire que ça existe aujourd'hui, c'est aussi d'implanter une vision sur deux à trois ans. C'est forcément un produit qui va arriver. Donc on veut éviter l'effet démo, on n'évite pas finalement la débâcle et le buzz après événement, et c'est ce qui s'est passé avec ces robots-là. Mais en tout cas, ce qui est important de comprendre, c'est que forcément, ils sont capables sur des temps courts de peut-être 10-20 secondes à réaliser ces tâches, mais on n'est pas à l'abri d'une hallucination, d'un mouvement qui dérive, et donc ils veulent complètement éviter ce genre d'événement, avec forcément qui est filmé, qui est diffusé pour être moqué par la suite ce qui est sûr c'est que ça a été téléopéré sur certaines parties en tout cas du salon.
Yannick Léo:
[2:07] Et ce qui est certain, c'est qu'aujourd'hui, ils n'ont pas l'autonomie qu'ils prétendent potentiellement avoir. Ça reste une vision aujourd'hui. L'empêche, ça reste très intéressant de voir ces robots, ces entreprises. Il n'y a pas que Tesla qui fait des robots. Il y a énormément d'entreprises qui émergent et qui font des robots avec différents cas d'usage. Et là, moi, ce que j'aimerais bien assister, c'est qu'il y a la vision d'un robot autonome qui est à la maison, potentiellement qui fait énormément de tâches, qui est à l'usine. Et il y a énormément de cas d'usages intermédiaires qui ne requièrent pas une autonomie totale où il y a énormément de valeurs ajoutées.
Monde Numérique :
[2:44] Avec des robots pas forcément humanoïdes, plus petits, qui peuvent être dans certains cas seulement des bras robotiques en fait.
Yannick Léo:
[2:52] Alors exactement, alors ça c'est des robots, rien que les bras articulés dans les usines, ça existe depuis très longtemps, ces bras articulés vont encore plus se complexifier, ils vont bénéficier de l'intelligence artificielle et de la puissance de l'intelligence artificielle et des nouvelles méthodes pour faire face finalement à des tâches qui ne sont pas seulement répétitives au X, Y près, mais qui peuvent avoir un certain nombre de variabilités. Il y a des choses forcément sur des techniques qui ne sont pas encore prises en main par des par exemple bras articulés ou des robots un peu plus simplifiés parce que justement il y a une variabilité sur la tâche. La pièce peut aller plutôt à gauche, à droite, il faut réagir, il faut s'adapter. Et donc, ces nouvelles techniques permettent, sans être complètement autonome dans le sens de l'humain, mais peuvent prendre en compte une variabilité. C'est ce qu'on voit notamment dans les voitures autonomes, où il y a une certaine variabilité de champs, bien que ça reste sur des routes avec des règles, etc.
Monde Numérique :
[3:53] Yannick Léo, vous êtes, je l'ai dit, directeur de la Data Science chez Emerton Data. Alors, quel rapport entre la data science et la robotique ? Et même avant cela, rappelez-nous un peu ce qu'est la data science.
Yannick Léo:
[4:05] Alors, la data science, c'est un champ assez large. L'idée, c'est vraiment utiliser des outils qui sont... Statistiques, on parle beaucoup de machine learning, de deep learning, donc c'est des techniques finalement qui visent à résoudre des tâches variées, ça peut être de la prédiction de séries temporelles, ça peut être de la recommandation, comme vous avez des algorithmes dans Netflix, ça peut être prédire les mouvements, ça peut être optimiser des transports, etc. Donc dans chacun des grands groupes français ou des grandes startups, on a un certain nombre de data scientists, qui travaillent à faire ces algorithmes qui optimisent, apportent de l'intelligence finalement aux différents métiers, prédire si un consommateur va partir du service, etc. Donc ça c'est vraiment tout un champ. Alors pourquoi c'est en train de prendre le pas robotique et data science ? Les data scientists ne sont pas des mécaniciens, ne sont pas des électroniciens, par contre ils font des algorithmes.
Yannick Léo:
[5:11] Et ce qu'on voit, c'est que derrière les algorithmes de ChatGBT notamment, avec les LLM, c'est derrière des réseaux de neurones. Et les réseaux de neurones, c'est un peu un outil qu'un data scientist manipule au quotidien pour faire ces algorithmes-là. On a bien vu d'ailleurs qu'entre les algorithmes qui généraient des images et les algorithmes qui généraient du texte, c'était deux communautés différentes qui ont fusionné, puisque derrière, il y avait vraiment la même technique, les mêmes architectures, si on peut dire.
Yannick Léo:
[5:42] Pour résoudre ses problèmes et avoir les meilleures performances. Et ce qui est en train de se passer avec la robotique, c'est finalement un peu la même chose. C'est en train d'essayer de passer à l'échelle avec ces architectures de deep learning, de reinforcement learning, donc apprentissage par renforcement. On se rappelle notamment de AlphaGo qui gagnait aux échecs les meilleurs joueurs. Et donc, c'est vraiment la fusion de l'ensemble de ces techniques qui est en train d'être intégrée sur la robotique. Et ce qui est intéressant, c'est typiquement, la robotique, ce n'est pas seulement mettre ChatGPT aujourd'hui dans un robot pour mieux voir, mieux parler, mais c'est aussi mieux se mouvoir grâce à cette technique nouvelle d'intelligence artificielle. Donc, on peut imaginer dans ces prochaines années et vraiment à un, deux ans, c'est en train de se passer, avoir vraiment un gap de performance, comme on l'a vu avec les chatbots d'hier et chat GPT d'aujourd'hui, sur la façon dont les robots bougent et évoluent dans leur mouvement.
Monde Numérique :
[6:49] C'est-à-dire que les robots vont apprendre comme aujourd'hui les LLM apprennent au fur et à mesure.
Yannick Léo:
[6:57] Exactement. En fait, quand on voit les démonstrations sur les téléopérations, c'est très important de le voir parce qu'au final, ce qui va se passer, c'est si vous êtes capable de faire en téléopérant donc il y a un humain qui fait bouger le robot pour faire une certaine tâche je dirais, si vous le faites 50 fois 100 fois, 1000 fois à la fin de la journée, vous envoyez ces données-là de mouvements de chacun des moteurs et bien sûr du robot, il sera le lendemain capable de réaliser cette tâche avec toute la variabilité que vous avez induite en faisant cette téléopération. C'est pour ça que quand on voit des robots se faire téléopérer, il faut être aussi assez visionnaire dans le sens où, finalement, téléopérer aujourd'hui, c'est apprendre à un robot demain.
Monde Numérique :
[7:51] Donc, en fait, selon vous, le fait de téléopérer un robot, ce n'est pas forcément que pour tricher, entre guillemets.
Yannick Léo:
[7:57] Non, effectivement, c'est vraiment. Et d'ailleurs, à notre échelle, on fait des tests sur des bras articulés et ça correspond vraiment à ça. Vous mettez deux caméras devant et au-dessus d'un bras articulé. Vous le téléopérez sur 50 fois, vous faites la chose. Alors, vous mettez l'objet un peu à gauche, à droite. Vous faites un peu des variations et après, vous envoyez le modèle entraîné pendant la nuit. Le lendemain, le bras articulé est capable de le faire. Donc, on imagine bien des chaînes d'usines qui vont pouvoir se réadapter du jour au lendemain ou au moins dans le mois pour faire un nouveau produit, etc. Il y a énormément de cas d'usage qui peuvent se développer à partir de cette idée. Alors, ça ne reste pas magique. C'est en train de se créer. Je ne dis pas que ça se fait aujourd'hui en faisant 50 tâches d'un robot, on arrive à le refaire. Mais en tout cas, c'est la voie que prend la science, clairement.
Monde Numérique :
[8:54] C'est-à-dire qu'un robot, en fait, apprend de plus en plus comme un être humain. Il suffit de lui montrer et petit à petit, il sait comment faire les choses.
Yannick Léo:
[9:03] Alors exactement, là, on est en train de parler de tâches qui sont répétitives, qui sont bien définies. Ce qui est intéressant, encore une fois, en parallèle avec ChatGPT, les LLM, ce qui a été vraiment un vecteur de performance, ce n'est pas seulement d'avoir une conversation sur un sujet défini, répétitif, c'est vraiment de passer à l'échelle. Et alors, ce passage à l'échelle, il est très fascinant, je dirais, sur la robotique. Comment on arrive à passer à l'échelle sur les mouvements de l'humain ? C'est un sujet très compliqué, parce que derrière, c'est le sujet de la data. Et en fait, pour faire ça, je pense qu'il y a une voie qui est en train de se créer qui n'est pas forcément partagée par tout le monde, mais qui peut se lire dans les différentes communications, notamment de Yann Lequin, qui est chief scientific officer de méta, c'est qu'en fait, comment récupérer des données de mouvements de l'être humain à l'échelle ? En fait, le vecteur qui est le plus, je pense, probable pour demain, ce sont les lunettes.
Yannick Léo:
[10:09] Il y a des lunettes qui sont en train de se diffuser chez les humains. Donc globalement, vous allez avoir cette lunette méta Ray-Ban qui a déjà été pas mal utilisée. Il y a une autre version qui est en train de se créer. Il y a pas mal d'acteurs sur le sujet. Je ne suis pas expert sur l'ensemble des marques. Mais en tout cas, c'est quelque chose qui est en train de se faire à l'échelle. Et en récupérant ces données, parce que c'est un peu ce qu'ils visent à faire, ils vont avoir un certain nombre de séquences avec l'image, le mouvement quand on regarde ses mains, quand on regarde finalement les mains et les mouvements des autres en face de nous, on va avoir un certain nombre de données qui va permettre potentiellement non seulement de faire un pas de plus vers une IA, généralisée, si on peut dire, enfin on l'appelle comme on veut, mais aussi vers une mouvance des robots qui est vraiment, optimale et généralisée sur un grand nombre de tâches cette fois-ci.
Monde Numérique :
[11:07] Ce que vous voulez dire en fait, c'est que ces lunettes connectées, ce n'est pas seulement, un produit avec des fonctions pour nous rendre service, entre guillemets, etc., mais ce sont une sorte de cheval de troie pour collecter de la donnée, pour ensuite entraîner des modèles d'intelligence artificielle.
Yannick Léo:
[11:25] Je n'irai pas directement là, je pense qu'il y a le vecteur de service qui est très intéressant, il y a énormément de cas d'usage sur les lunettes. Par contre, c'est quasiment...
Monde Numérique :
[11:34] Oui, mais c'est à double entrée, c'est-à-dire que c'est un peu comme les bracelets pour le sport, les Fitbit et autres. D'un côté, oui, ça rend un objet utile, mais d'un autre côté, pour les entreprises, c'est un moyen de collecter des données qui ont une très grande valeur.
Yannick Léo:
[11:51] C'est effectivement l'un des gros avantages de Meta aujourd'hui pour se diriger vers une intelligence artificielle généralisée, c'est que justement, ils sont en train de déployer ces lunettes à grande échelle et d'ailleurs, c'est pas forcément moi qui le dit directement aujourd'hui, si vous suivez les communications d'Ian Lequin sur Twitter ou sur les échanges avec Elon Musk, ce qu'il dit c'est que les LLM sont limités, je crois que vous l'avez déjà partagé sur les différents podcasts précédents Oui.
Monde Numérique :
[12:24] Tout à fait.
Yannick Léo:
[12:24] Mais du coup, Globalement, le parallèle qui est fait, c'est un enfant de 6 mois a plus de données avec l'ensemble de ses capteurs dans ses yeux que ChatGPT, notamment. Il y a énormément de données redondantes avec les images, effectivement. Mais ça, c'est quelque chose qui est martelé dans la communication de Meta depuis maintenant 2 ans. Et le vecteur, finalement, pour apprendre, ce sont les images. Il y a forcément les vidéos, tous les films que vous pouvez avoir, etc. Mais finalement, les images que vous allez récupérer dans les lunettes, ça va être un énorme vivier pour pouvoir augmenter l'intelligence de ces intelligences artificielles.
Monde Numérique :
[13:05] Oui, et puis en plus, c'est une vision subjective, comme on dit. C'est-à-dire que c'est ce que voit le porteur des lunettes qui est capté, donc c'est pas mal.
Yannick Léo:
[13:12] Exactement, c'est ce que voit l'homme, c'est le quotidien finalement, et l'enjeu de ces robots, c'est de s'insérer dans la vie quotidienne et de devenir potentiellement un citoyen. Alors là, il faudra bien sûr parler de tout ce qui est régulation et tous ces éléments-là, parce que ça a énormément de risques, forcément, pour l'homme, avec un grand H, d'introduire ces robots-là. Mais en tout cas, l'enjeu et la difficulté, donc la magie du robot, c'est que finalement, il n'y a pas besoin de changer les infrastructures, parce qu'il est avec une apparence et des facultés qui sont plus ou moins comme l'humain. Par contre, à l'inverse, ça apporte un certain nombre de risques. Si on le met à la maison, par exemple, se faire hacker un ordinateur, c'est pas si grave. Se faire hacker un robot, on peut imaginer les dérives qu'il peut y avoir. Il a de la force, le robot. Personnellement, je ne suis pas dans une vision apocalyptique. J'essaie vraiment de raisonner sur ce qui existe aujourd'hui en termes de science et en termes de possibilités. Avoir un robot à la maison, c'est
Yannick Léo:
[14:23] très risqué aussi. Ce n'est pas un aspirateur qui va vous faire du mal. Par contre, un robot qui sait casser une noix peut être un risque pour les personnes et les habitants, forcément, qui sont dans la maison.
Monde Numérique :
[14:41] Oui, quand on voit comment des beepers peuvent être piratés pour mener des actions à distance, on imagine un robot hacker les dégâts que ça pourrait provoquer. Bon, si on va sur le côté positif, Yannick, est-ce qu'on peut dire que ça, ça va vraiment permettre à la robotique de faire un bond en avant ?
Yannick Léo:
[15:01] Ça va faire un bond en avant. Je reviens finalement au robot d'Elon Musk avec la promesse d'être un assistant à la maison ou dans les usines. Ça va faire un bond en avant. On voit déjà des cas d'usage. Côté BMW, ils ont déployé figure 02 depuis janvier 2024 pour faire un certain nombre de tâches répétitives dans la chaîne de production.
Yannick Léo:
[15:30] Mercedes aussi a déployé un robot qui vise à porter un certain nombre de décharges plutôt lourdes, plus de 25 kg. Donc ça permet de décharger des tâches finalement qui usent les employés au quotidien. La NASA va aussi l'employer pour potentiellement faire un premier astronaute robot. Donc oui, tous ces éléments-là, les données qui vont pouvoir être ingérées, les avancées sur l'architecture d'intelligence artificielle, on va vraiment aller vers un bon en avant. La question peut-être que vous allez me poser, c'est quand est-ce que tout cela sera efficace ? Honnêtement, personne n'est capable vraiment de savoir quand le robot sera, ou l'intelligence généralisée sera déployée.
Yannick Léo:
[16:16] Voilà, Elon Musk dit 2025 quasiment. Yann Lequin dit dans 10 ans, peut-être la réponse c'est entre les deux et il y aura vraiment énormément de performances à aller chercher et de cas d'usage qui seront déployés dans les entreprises.
Monde Numérique :
[16:38] Est-ce que ça va dans le sens d'une démocratisation de la robotique également ? Est-ce qu'on va pouvoir de plus en plus facilement se fabriquer son propre robot ?
Yannick Léo:
[16:48] Alors, c'est déjà en train de se passer, effectivement, à une échelle qui est différente d'hier. Aujourd'hui, initié par Hugging Face, dont le chief scientist officer qui s'appelle Thomas Wolfe, qui est un passionné de robotique et qui voit vraiment la robotique comme un vecteur de développement de la science avec un certain nombre de cas d'usage. Donc, il a misé énormément sur la robotique. Ils ont embauché un ancien Tesla qui s'appelle Rémi Cadenne pour structurer toute la pratique robotique de GingFace. GingFace, je le rappelle, c'est une entreprise qui développe l'open source. Il y a plus d'un million de modèles d'intelligence artificielle sur la plateforme GingFace qui a été fondée par trois Français.
Yannick Léo:
[17:33] Et pourquoi je parle de Game Face ? C'est qu'ils ont lancé, ils structurent un projet qui s'appelle Le Robot. Encore une fois, on voit la patte française dans l'open source aujourd'hui, qui vise finalement à démocratiser la robotique. Donc là, on fait le lien finalement avec l'ensemble des data scientists qui sont prêts à aller dans la robotique et à faire leurs tests, à améliorer finalement l'état de l'art de la robotique. Et aujourd'hui, avec 200 euros, voire même moins, on est capable de récupérer quelques petits moteurs, quelques fils et des cartes pour pouvoir, en mode Raspberry Pi, pour ceux qui connaissent, c'est les petits ordinateurs qui sont tout petits et qui peuvent permettre de faire un certain nombre de choses et donc voilà, en mode un peu débrouille si je puis dire ils arrivent à récupérer sur Amazon ou autre commerce récupérer un certain nombre de pièces, construire par eux-mêmes en imprimant avec des imprimantes 3D qui sont sophistiquées aujourd'hui il suffit d'acheter du plastique d'imprimer en 3D les différentes pièces qui sont partagées, et on arrive à faire finalement des robots. Ce qui change aussi aujourd'hui, c'est qu'on crée son robot, ce n'est pas si simple d'accès. Donc, si on a un souci, il y a une communauté qui nous répond dans l'heure à notre problème, on partage notre vidéo et un certain nombre de gens arrivent à le faire. Et typiquement...
Monde Numérique :
[18:59] C'est pour quel genre de robot, ça ?
Yannick Léo:
[19:01] C'est des bras articulés aujourd'hui. C'est des bras articulés qui sont connectés au package du robot qui ont vraiment vocation à être accessibles à tout le monde. Il y a d'autres robots qui sont connectés, qui sont un peu plus sophistiqués, comme Richie2, qui est un robot qui est français, un robot qui est français, qui a fait le pari de l'open source, qui se connecte et qui s'intègre très bien avec le package Le Robot. Pour pouvoir justement faire tout cet apprentissage qu'on a parlé tout à l'heure et pour réaliser ces tâches répétitives. Et ces robots-là et les entreprises qui vont faire le pari de l'open source vont bénéficier, comme aujourd'hui Yamaha avec Meta bénéficie finalement d'une traction d'adoption et de retour sur l'utilisation. Ces robots qui vont faire le pari d'être connectés à le robot vont pouvoir bénéficier de cette communauté-là. Par contre, le data scientist ne peut pas aujourd'hui se permettre de payer 10 000 euros, 20 000 euros pour récupérer ces robots et faire ces tests-là. Il y a aussi une entreprise chinoise qui est Unitry, qui mise un peu sur l'open source avec son nouveau robot. Là aussi, on parle à peu près de 20 000 euros pour avoir ce robot. Donc, l'open source aujourd'hui...
Monde Numérique :
[20:23] Oui, qui est un robot humanoïdes, un peu comme celui de Tesla.
Yannick Léo:
[20:27] Exactement, c'est un humanoïde. Donc, ça, c'est pas encore cette partie-là. Humanoïde n'est pas encore accessible à la communauté scientifique, au vu du prix. Mais par contre, les bras articulés sont en train d'être accessibles. Il y a des vidéos, vous allez les voir, sur comment plier un t-shirt, faire ce genre de choses, avec deux bras articulés à 200 euros et la science d'aujourd'hui.
Monde Numérique :
[20:52] Et après, ce n'est plus qu'une histoire d'imagination, en fait.
Yannick Léo:
[20:56] Effectivement, c'est juste une histoire d'imagination. D'ailleurs, cette communauté se rassemble lors de Hackathon. Il y en a un exactement le week-end du 25 octobre. Et l'idée, c'est d'embarquer de nouveaux arrivants dans cette communauté pour qu'on puisse vraiment construire ces robots et commencer à faire le premier apprentissage sur une tâche spécifique.
Yannick Léo:
[21:22] Et ce qu'ils espèrent par ce hackathon c'est avoir de nouveaux usages de nouvelles idées et on en voit qui sont partagées et qui étonnent déjà l'entreprise Hugging Face avec énormément de tâches qui sont réalisées sur la cuisine notamment c'est des choses qu'ils n'ont pas forcément pensées à la base et positionner ces deux bras articulés à côté des plaques pour faire à manger c'est des choses que certains data scientists sont en train d'essayer de faire.
Monde Numérique :
[21:53] Voilà, ce hackathon qui se tient ce week-end, 26-27 octobre, à Toulouse, au village Baïséa. Merci beaucoup, Yannick Léo, associé directeur de la Data Science au cabinet Emerton.
Yannick Léo:
[22:07] Merci à vous, Jérôme Colombin.