Speaker1:
[
0:01] On utilise ce qu'on acàcomplit du cerveau, on le modélise et après,
Speaker1:
[
0:05] on traduit ça dans un algorithme. Et cet algorithme, on le programme et donc, on réalise à un other brain les fonctions de base de l'intelligence. Et quand on aura suffisamment de fonctions assemblées ensemble, on aura réalisé une véritable intelligence artificiellement et qui fonctionnera comme le cerveau.
Music:
[
0:21] Music
Speaker0:
[
0:26] Bonjour Bruno Maisonnier.
Speaker1:
[
0:28] Bonjour Jérôme.
Speaker0:
[
0:30] Fondateur de Under the Brain, société spécialisée en intelligence artificielle. Et avant cela, Bruno, il faut le rappeler, vous êtes le papa des petits robots Pepper et Nao qui ont connu une longue carrière que l'on croise encore de temps en temps, ici et là. Et vous publiez un livre au titre énigmatique qui s'appelle Organic AI, paru chez Herman. C'est un livre qui défend une thèse étonnante, c'est-à-dire que selon vous, l'IA du futur pourrait être organique. Ça veut dire quoi ? C'est pour nous faire peur ou c'est une hypothèse sérieuse ?
Speaker1:
[
1:05] C'est organique au sens bio, au sens américain. Ce n'est pas organique au sens, c'est un organe.
Speaker0:
[
1:11] D'accord.
Speaker1:
[
1:11] Et c'est bio parce que c'est très frugal en données, c'est très frugal en énergie et ça fonctionne comme les cerveaux, comme les cerveaux animaux. La thèse du livre, c'est qu'aujourd'hui, on arrive à des grands succès avec les IA, le Chat GPT, les LLM, etc. On arrive à des grands succès, mais on arrive un peu au bout d'un chemin. Ces succès sont à un coup, je vais dire, juste en empreinte carbone pour résumer tout ça, colossal. Et donc, il faut essayer de trouver d'autres solutions. Or, on a à notre portée des cerveaux naturels, le cerveau humain, le cerveau des animaux. On les a, on a des idées sur comment ça fonctionne. Pourquoi pas s'en inspirer ? Pourquoi ne pas s'essayer de cerveau niac qui fonctionne comme ces cerveaux ? Alors, la réponse globale de tout le monde, c'est de dire, ben oui, mais on ne sait pas comment ça marque l'intelligence. Mais ce n'est peut-être pas vrai. Peut-être qu'on en sait beaucoup, beaucoup plus que ce qu'on veut bien croire. Donc, nous, c'est ça qu'on a choisi de faire, en s'inspirant de se penser sur
Speaker1:
[
2:10] le cerveau, de faire une intelligence artificielle qui fonctionne comme le cerveau.
Speaker0:
[
2:16] Alors, c'est vrai que dans votre livre, vous vous inspirez, vous montrez à quel point vous vous inspirez de la nature. Vous parlez d'abeilles, de termites, vous parlez des arbres, etc. Donc déjà, c'est une réflexion sur l'intelligence elle-même. De quelle manière est-ce que cette intelligence organique pourrait devenir de l'intelligence artificielle ?
Speaker1:
[
2:35] En fait, le début de ce genre de courant de pensée, on va dire comme ça, vient de quelque chose qui est étonnant. En 1981, il y a eu un prix Nobel de médecine, 1981, il y a longtemps, qui expliquent le fonctionnement de base du cortex cérébral. Or, le cortex, c'est là qu'est traité l'essentiel de l'intelligence, des fonctions d'intelligence du cerveau humain. Donc, l'essentiel de l'intelligence faite par le cortex, et il y a quelqu'un qui décrit le cortex. Le cortex, c'est une espèce de surface uniforme, comme une espèce de toile cirée de 65 cm de diamètre qui est froissée pour tenir dans le crâne, s'il n'en s'étiendrait pas.
Speaker1:
[
3:17] Et quand on regarde au microscope électronique, on se rend compte que sur cette surface, Sur le cortex, il y a une espèce de truc qu'on appelle un agrégat de neurones, une colonne corticale, une petite colonne corticale, et qu'il y en a 200 millions côte à côte et qui travaillent tout ensemble. Ces 200 millions de colonnes corticales qui sont toutes les mêmes, font toutes les fonctions de l'intelligence, et c'est là que je fais un peu le parallèle avec, non pas 200 millions d'abeilles, mais avec des abeilles, des thermies, des fourmis, des tas d'agents, des insectes qui sont des agents élémentaires ou des individus qui fonctionnent chacun séparément dans leurs points mais qui coopèrent, comme le font les colonnes corticales. Donc il y a un parallèle qui est assez fort et assez intéressant et même assez fécond à creuser sur la comparaison entre la façon dont les abeilles fonctionnent, par exemple, et les colonnes corticales fonctionnent.
Speaker0:
[
4:07] Donc il y a ce livre qui explique tout ça. Est-ce que ça veut dire que derrière, vous êtes déjà sur ce type de travaux au sein de votre entreprise Another Brain.
Speaker1:
[
4:18] Absolument. C'est-à-dire, non seulement on essaie de comprendre le cerveau, on utilise ce qu'on a compris du cerveau, on le modélise, et après, on traduit ça dans un algorithme. Et cet algorithme, on le programme. Et donc, on réalise à Another Brain les fonctions de base de l'intelligence. Et quand on aura suffisamment de fonctions assemblées ensemble, on aura réalisé une véritable intelligence artificiellement, une intelligence artificielle, c'est une vraie intelligence mais faite artificiellement, et qui fonctionnera comme le cerveau. Oui, c'est ça qu'on est en train de réaliser.
Speaker0:
[
4:50] Et vous en êtes où aujourd'hui ?
Speaker1:
[
4:52] On pense qu'avant juin, on aura un démonstrateur. C'est-à-dire qu'on est suffisamment avancé pour dire qu'on va faire quelque chose qui fait une partie des fonctions, il n'y aura pas tout, mais il y aura une partie qui est suffisamment probante pour qu'en voyant ça, on se dise bon sang, mais ils ont effectivement compris comment va l'intelligence et ils sont effectivement capables de le traduire en algorithme. Donc, donnons-leur les moyens, c'est un des objectifs du livre, donnant-leur les moyens pour qu'ils transforment ça en une intelligence complète. C'est un démonstrateur en joueur.
Speaker0:
[
5:21] D'accord. Et donc, clairement, aujourd'hui, vous êtes en quête de soutien, de financement aussi, etc.
Speaker1:
[
5:28] Non, aujourd'hui, je ne suis pas en quête de soutien, etc. Aujourd'hui, je suis focalisé sur traduire nos algorithmes en un démonstrateur opérationnel. Et je ne fais que ça et rien d'autre. Et tant que j'aurai ça que je serai capable de montrer, à ce moment-là, j'irai frapper à différentes portes en disant voilà où on en est, on a vachement avancé, on a quelque chose qui prône que le chemin qu'on suit est très original, très différent et très puissant. Et donc, ça vaut un coup de le financer pour les pouvoirs publics, mais en particulier parce qu'il est très différent. Si on fait la même chose que tous les autres, c'est difficile d'avoir de la souveraineté. Mais si on fait complètement autrement, par définition,
Speaker1:
[
6:03] c'est souverain ce qu'on fait. Ça joue une autre voie sur faire de l'intelligence artificielle.
Speaker0:
[
6:07] C'est-à-dire que pour vous, derrière ça, il y a cette notion encore de souveraineté numérique, de redonner de l'indépendance et de l'autonomie technologique à la France et à l'Europe ?
Speaker1:
[
6:21] Je ne sais pas si c'est derrière ça, mais en tout cas, c'est quelque chose qui me tient à cœur. Je suis choqué, peiné par... Les réactions que j'entends ici ou là, quand on voit les réactions françaises face au développement pour les Américains, les petits moyens ridicules qu'on y met sans se préoccuper, mais qui sont suffisants, qui donnent de suffisamment résultats des petits résultats pour qu'un ministre puisse sortir la tête haute en disant « Mais nous, regardez, on a ci, on a ça, on n'est pas d'huile, on est bon, on avance. » Tu as vu comme moi, j'imagine les annoncières de Trump et les autres, les Américains, ils vont mettre 500 milliards de dollars. En plus, qu'est-ce que mettent les GAFA, qui sont 200 milliards de dollars chacun, tous ensemble les GAFA, ils mettent 200 milliards de dollars chaque année, sur des sommes colossales. Et nous, on met le centième de ça, et on les rattraper.
Speaker0:
[
7:15] Donc, les rattraper, ce n'est pas possible, du coup, il faut prendre un autre chemin.
Speaker1:
[
7:18] Oui, si on essaye, enfin, Sun Tzu nous l'avait expliqué il y a 2500 ans, si on essaie de faire comme les autres, alors pour après, faire la même chose qu'eux, mais en allant moins vite, en étant moins intelligent, moins riche, etc. Quand je dis moins intelligent, c'est que tous les gens les plus intelligents, même de chez nous, ils les embauchent. Donc globalement, ils sont plus intelligents, plus riches et ils avancent. Qu'est-ce qu'on a comme espoir de les attraper sur leur terrain ? La seule solution, c'est de changer de terrain, c'est d'aller sur le terrain
Speaker1:
[
7:45] d'après, de prendre de l'annonce sur le terrain d'après. C'est la seule solution.
Speaker0:
[
7:49] Pour revenir à cet IA organique de manière plus précise, Bruno Maisonnier, ça ressemble à quoi ? Ça se programme avec un ordinateur classique, c'est conversationnel comme un chat GPT, ce serait quoi ?
Speaker1:
[
8:02] Ce serait plutôt conversationnel, mais en fait, c'est multimodal. C'est-à-dire que notre cerveau, lui, il traite de la même façon les informations qui viennent des yeux, des oreilles, du soi, etc. Il a le même algorithme de base qui fait tout. Et donc, c'est ça qu'on aura, nous, au bout du chemin. Et du coup, on sera capable, petit à petit, de lui parler, il reconnaîtra les mots, les paroles et les phrases, mais on pourrait lui faire la gestion et lui montrer des trucs. On pourrait lui montrer des vidéos en disant qu'est-ce que c'est que ça, qu'est-ce que c'est... Donc, en fait, on interagira de façon naturelle avec ce système-là. La même spécialité, c'est un élément clé pour nous. Le système, en fait, notre chip, il va apprendre tout seul à partir d'exemples, à partir d'être exposé à plein d'expériences, à plein de situations, et tout seul, il va en tirer des leçons, il va en tirer l'essence des situations en question pour être capable de proposer des réponses. C'est un peu ça le principe.
Speaker0:
[
8:58] C'est la théorie que défend Yann Lequin qui dit que les LLM actuels sont forcément limités, atteindront des limites, parce qu'ils ne fonctionnent pas comme nous-mêmes qui, finalement, il suffit qu'on tombe une fois dans les escaliers pour comprendre qu'un escalier, c'est dangereux.
Speaker1:
[
9:14] Ben oui, ben oui. Quand on voit un signe d'alien nouveau qu'on n'a jamais vu, la première fois qu'on voit l'alien, on est surpris, la deuxième fois, on le reconnaît, on sait ce que c'est. On a pris un seul fringon.
Speaker0:
[
9:23] Et c'est ça que vous voulez faire. C'est une IA qui apprendrait en une seule fois.
Speaker1:
[
9:27] Oui, en deux fois plutôt, mais enfin, c'est un nom qui apprendrait en très bien. D'ailleurs, le demonstrateur qu'on va faire au mois de juin, ce qu'on voudrait, c'est montrer que notre système est capable d'apprendre en live, en real time. Il apprend des nouvelles choses qui arrivent en permanence. Et il apprend sans effacer les précédents qu'il avait appris avant. Il y a un des problèmes du deep learning. Les autres systèmes ne savent pas faire de l'apprentissage real time et ne savent pas faire de l'apprentissage accémental.
Speaker0:
[
9:53] Du coup, c'est pour ça que ça aurait besoin de beaucoup moins de données, en fait.
Speaker1:
[
9:57] Ah ben oui, oui. En fait, il faut que ce soit plus précis que ça. Ça a besoin de beaucoup, beaucoup moins de données pour être capable de prendre des décisions, de donner des réponses qui ne sont pas déconnantes. Mais je l'aurai enrichi avec une grande quantité de données. Les réponses seront précises et il n'y a pas de limite. Mais dès le début, même avec très peu de données, le système sera capable de prendre des décisions pas déconnantes.
Speaker0:
[
10:23] Est-ce qu'on aurait des problèmes d'hallucinations comme on l'a aujourd'hui avec les IA génératives ?
Speaker1:
[
10:29] Alors on n'a pas celle-là on n'aura pas du tout celle-là par contre on aura d'autres problèmes qui sont les mêmes que ce à quoi le cerveau nous expose par exemple de temps en temps tu regardes dans un nuage et tu reconnais un visage il n'y a pas de visage un peu ce que tu reconnais un visage notre système il aura le même genre de défaut
Speaker0:
[
10:44] Ouais si on se projette encore plus loin Bruno Maisonnier c'est à la fois fascinant attirant et encore plus flippant je dirais, que ce qu'on voit aujourd'hui parce que là on s'approcherait vraiment d'une vraie intelligence artificielle. On dit souvent que l'IA actuelle n'est pas intelligente. Elle est purement statistique. Mais là, votre ambition, c'est de créer véritablement une intelligence. Donc, in fine, quoi ? Une conscience, après ?
Speaker1:
[
11:14] Alors, moi, je pense que oui. C'est-à-dire que je pense, moi, je pense, mais on peut être profondément croyant au sens où dans l'homme, il y a une âme, il y a autre chose qu'un organe. Le cerveau, c'est autre chose qu'un organe. Et si c'est ça, ça, je ne pourrais pas le faire. Mais toute la partie organique, là, au sens organique d'un cerveau, toutes ces fonctions-là, on pourra petit à petit les faire. Bien sûr, il n'y a pas de limite. Donc, un jour, on aura un cerveau, une intelligence artificielle qui aura les mêmes fonctions, les mêmes capacités. On les dotera d'émotions, mais d'émotions réelles, pas des recopies d'émotions. Parce que l'émotion est un truc que la nature a inventé, a sélectionné, pour quelque chose, dans un but bien précis. Pourquoi on a la peur ? Parce que la peur, c'est un sentiment, une émotion qui te permet de te protéger.
Speaker0:
[
12:03] Ah oui, la survie.
Speaker1:
[
12:04] L'amour, c'est une émotion qui te permet d'aller vers l'autre, qui te permet de se reproduire. Et donc, c'est des choses qui sont utiles, des fonctions utiles. On aura besoin de donner les mêmes genres de fonctions à nos intelligences artificielles, nos robots. Donc, oui, bien sûr qu'on aura ça. Maintenant, sur le chemin sur lequel l'humanité avance, on aura des intelligences réelles, complètes avec toutes les fonctions et qui ne seront pas limitées en taille.
Speaker1:
[
12:30] À certains, ça peut faire peur. À d'autres, ça peut faire au contraire plaisir parce qu'elles vont être capables de régler les problèmes qu'on n'est pas capables de régler. Ce que je voudrais mettre en perspective, c'est que c'est une situation à laquelle l'humanité a été confrontée en permanence. Des nouvelles inventions qui offrent des possibilités incroyables, mais avec des risques incroyables. Alors, il y a très, très longtemps, on a, entre guillemets, inventé le feu.
Speaker1:
[
12:52] On peut dire qu'il y a eu des millions de morts par le feu. C'est pas pour ça que c'était un mal. On a inventé la vapeur, on a inventé l'électricité, on a inventé les voitures, les avions. L'humanité a rendu des tas de trucs qui est systématiquement présente des risques. Les risques arrivent. Donc les risques de l'intelligence artificielle et de la robotique vont arriver. Il y aura des situations dramatiques qui vont arriver. Mais ce que l'humanité sait très très bien faire, c'est d'encadrer les choses pour globalement en tirer plus de bien que de mal. Et l'intelligence artificielle va nous permettre de résoudre des problèmes qu'on ne sait pas régler autrement. Et je prends l'exemple de corriger les maladies génétiques. Ça fait 50 ans qu'on nous explique qu'avec les ciseaux génétiques, CRISPR, Cas9, etc., on va être capable de corriger les maladies génétiques. On n'y est pas encore parce que c'est hyper compliqué. Et que si on avait de l'intelligence complémentaire, ça nous aiderait bien. Les problèmes d'environnement, les problèmes... Donc, l'intelligence artificielle vraiment intelligente va nous aider à régler des problèmes qu'on ne sait pas régler autrement. Mais, en attendant d'avoir bien mis toutes les contrées à la table, il y a des risques. Et ces risques, de temps en temps, ils s'agèrent. Et on sait qu'il y a aussi des individus qui vont sciemment détourner ces technologies.
Speaker0:
[
14:02] Eh oui, bien sûr.
Speaker1:
[
14:03] Bien sûr, l'humanité est comme ça.
Speaker0:
[
14:06] Vous, vous êtes un homme de la robotique. Le but du jeu, après, c'est de mettre tout ça dans un robot humanoïde ?
Speaker1:
[
14:12] Alors, je suis aussi un homme de la robotique, oui, et le but du jeu, ce n'est pas juste ça. Les voitures autonomes m'intéressent, ou comme la Défense Spatiale me l'a demandé, d'avoir des satellites qui sont capables de se défendre tout seuls, ça serait bien, parce qu'aujourd'hui, nos satellites sont attaqués par d'autres satellites. Donc, ça se passe loin, on ne sait pas, et on découvre trop tard ce qui s'est passé. Donc, ça devrait servir à bien d'autres choses que de la robotique. Mais oui, je suis convaincu, mais ça fait 20 ans que je le suis, qu'il y aura des robots humanoïdes un peu partout dans nos vies, pour nous accompagner, pour nous aider dans les usines, dans les mines, dans tout un tas de travaux pas agréables, etc. Et pour accompagner les gens, bien sûr, et que ça suppose tout un tas de technologies qui ne sont pas encore disponibles aujourd'hui. Alors, ils arrivent petit à petit. On avait déjà commencé avec Naoi et Pepper. Et l'Otmos, maintenant, on les met dans les usines. Et les Chinois les mettent dans les usines. Il y a beaucoup plus de Chinois, d'ailleurs, que l'Otmos qui le font. Mais ça va continuer à aller, après, dans les hôpitaux, chez les gens, ce que fait Enchanted Tools une boîte française à Paris pilotée par Jérôme Mousseau va dans ce sens-là donc oui bien sûr de l'intelligence là-dedans
Speaker0:
[
15:16] Oui Enchanted Tools qui s'est beaucoup fait remarquer au CES de Las Vegas d'ailleurs, dernièrement Bruno Maisonnier les annonces récentes justement de Tesla il y a d'autres il y a Figures AI etc, tout ça ça va dans le bon sens c'est du ça va vraiment déboucher quand Elon Musk promet un robot humanoïde à 20 000 ou 30 000 euros, qu'on pourra acheter d'ici 2026, vous y croyez ou pas ?
Speaker1:
[
15:44] La question, c'est une question d'horizon de temps. Je ne suis pas sûr de croire, je n'ai pas d'éléments pour croire ou ne pas croire dans les dates qu'il annonce. La seule information que j'ai, c'est qu'il a quand même régulièrement dépassé ses échéances et pas à partir de l'équipe en matière de date. Mais j'ai une certitude totale que ça va arriver, peut-être un peu après, mais que ça va arriver, oui, bien sûr.
Speaker0:
[
16:04] Et c'est une bonne voie, le robot humanoïde ?
Speaker1:
[
16:07] Il y a eu des grandes discussions, je pense, on a mis Bruno Bonnet là-dessus, des grandes discussions sur humanoïde, pas humanoïde. La meilleure forme pour faire une tâche, ce n'est pas l'humanoïde. La meilleure forme pour laver la vaisselle, un cube qui lave la vaisselle, ça marche bien. Ou la meilleure forme pour nettoyer chez soi, c'est un aspirateur qui se tout plat et qui aille sous les mains. Donc ça, c'est sûr. Et sur chacun des postes de travail dans une ligne de production industrielle, il y a un robot adapté qui serait bien plus efficace que si c'est un humanoïde. Maintenant, si dans une ligne de production, il y a 50 postes de travail qui suivent, vous voulez tout automatiser, vous allez devoir inventer 50 robots différents. Alors que tous ces postes de travail ou tous vos outils à la maison ont été conçus pour être manipulés par un humain. Donc, si vous faites un robot humanoïde, alors ce n'est plus compliqué à faire, c'est clair, mais si on y arrive à faire un robot humanoïde, il va lui être capable d'utiliser tous les outils qui ont été faits pour les humains. Donc, toutes les lignes de production ont été utilisées automatiquement. Donc oui, bien sûr, c'est une très bonne solution. Et on va aller faire ça. Il y aura des robots human rights partout, c'est une certitude.
Speaker1:
[
17:11] Et je vais m'arriver un tout petit peu plus loin. Si la fonction, c'est de nettoyer le sol, on n'a pas besoin d'une forme humanoïde. Mais la fonction première, c'est d'interagir avec des gens. C'est quoi la bonne forme pour interagir avec des gens ? Est-ce que l'interaction, ça passe uniquement par la voix ? Ou est-ce que les gens de communication comme toi et comme d'autres nous disent que le body language, c'est la plus grande partie, c'est vraiment bien plus de la moitié des messages et des communications, gens passent par le body language, par l'intonation. Donc, si la première fonction d'un robot, c'est d'interagir avec des gens, ce que j'espère pour un robot qui accompagne les personnes âgées ou l'hôpital, il faudra qu'il soit capable de comprendre et de jouer du body language.
Speaker0:
[
17:54] Ce qui est assez injuste, d'ailleurs, parce que certains sont plus à l'aise avec le body language que d'autres.
Speaker1:
[
18:01] C'est vrai.
Speaker0:
[
18:04] Bon, super, c'est passionnant. Merci beaucoup, Bruno Maisonnier donc je rappelle le titre de ce livre qui vient de sortir et qui explique tout ça en détail donc, Organic AI paru aux éditions Erman et merci d'avoir été dans Monde Numérique Merci Jérôme.
Music:
[
18:21] Music