[EN PARTENARIAT AVEC GOOGLE]
Monde Numérique vous aide à mieux comprendre l'intelligence artificielle avec Joëlle Barral, directrice de la recherche fondamentale chez Google DeepMind.
Derrière le concept d'intelligence artificielle se cachent différents concepts. L'IA consiste à faire apprendre des choses aux machines à partir d'exemples plutôt que de spécifier chaque instruction. C'est ainsi que les programmes actuels sont capables d'apprendre à reconnaître des objets dans des images ou transcrire la parole. L'IA utilise des méthodes statistiques pour prendre des décisions en fonction des exemples qui lui sont montrés, mais sans comprendre réellement ce qu'elle traite.
Modèles de langage
Les nombreux modèles de langage, tels que BERT, MUM, LAMBDA, PALM, PALI, PALM2, sont entraînés sur de grandes quantités de données pour produire des résultats en fonction des probabilités. Ces modèles de langage peuvent combiner diverses informations, telles que le texte, les images et l'audio, pour générer des réponses plus précises. Nous évoquons également la question des modèles multimodaux qui, grâce à des milliards de paramètres, sont capables d'analyser des images en temps réel.
Monde Numérique: Bonjour Joëlle Barral.
Joëlle Barral: Bonjour Jérôme.
Monde Numérique: L'intelligence artificielle est dans toutes les têtes depuis plus d'un an, avec l'apparition de ChatGPT. Le grand public a pris conscience, au delà du cercle des spécialistes, qu'une véritable révolution était en cours. Revenons à la base : comment définissez-vous l'intelligence artificielle ?
Joëlle Barral: Oui. Alors l'IA, l'intelligence artificielle, c'est. C'est un terme assez général qui décide, qui désigne tout un ensemble de techniques. On parle aussi d'apprentissage machine, donc c'est des techniques qui permettent aux machines d'apprendre à partir de nombreux exemples. Et ça, c'est en opposition à des à des programmes informatiques où il faut bien spécifier chaque instruction. Là, au lieu de faire ça, on nourrit la machine avec beaucoup d'exemples. Et ensuite l'IA va apprendre par exemple à identifier des objets dans des images. Si vous avez toute une collection de photos et que vous voulez savoir toutes les tous les clichés que vous avez pris de la Tour Eiffel, l'IA peut vous permettre de faire ça. Transcrire le langage parlé, la conversation qu'on est en train d'avoir, etc. Donc ça c'est vraiment, voilà, il y a de base.
Monde Numérique: Mais quand on dit l'IA, immédiatement, il y a des voix qui s'élèvent pour dire en fait, l'IA n'existe pas, c'est à dire qu'il n'y a pas d'intelligence là dedans.
Joëlle Barral: Ah si si, si vous me demandez de définir l'intelligence, c'est très difficile. Je crois qu'on a appelé ça intelligence, parce que vraiment il y a cet apprentissage. Et donc je crois que c'est une caractéristique de l'intelligence de savoir apprendre, de savoir s'adapter à son environnement. Donc on retrouve ça dans les modèles d'IA. Là où je vous rejoins, c'est que c'est vraiment une machine à laquelle on montre énormément d'exemples et qui ensuite utilise des méthodes statistiques pour face à un nouvel exemple. Savoir quoi en faire et décider par exemple si c'est un chat ou un chien.
Monde Numérique: Elle ne comprend pas si c'est un chat ou un chien, elle voit que des pixels. En fait, elle.
Joëlle Barral: Ne voit certainement que des pixels. Bien sûr. Après voilà, on peut encore, on pourrait, on pourrait aller sur des. Sur des sujets de cognition. Qu'est ce que comprendre? Est ce que la machine utilise une représentation latente de l'information qui s'apparente à ce que nous on fait quand on identifie une image? Je crois que c'est des grandes questions et on n'a pas complètement les réponses.
Monde Numérique: On va peut être pas toutes les traiter maintenant, on va rester sur des choses très concrètes et qui ont été beaucoup évoquées ces derniers temps, et donc notamment l'IA générative. Qu'est ce que c'est que l'IA générative par rapport à l'intelligence au sens plus large?
Joëlle Barral: Oui. Alors si on prend l'IA, l'IA plus traditionnelle, celle dont je vous parlais, on arrive à distinguer des images de chats, d'images, de chiens. C'est de l'IA discriminative, C'est à dire qu'on montre beaucoup d'exemples avec des labels différents et on apprend à discriminer entre un certain nombre de catégories. L'ia générative, ça va plus loin. C'est à dire qu'à partir de beaucoup d'exemples, elle apprend à générer un nouvel exemple. Donc si vous lui demandez de générer une image de chien, elle va générer cette image et pas prendre dans tout ce qu'elle a vu une image préexistante. Donc c'est quelque chose qu'elle génère, elle, pas elle. Alors la création c'est compliqué parce que c'est pareil avec l'intelligence.
Monde Numérique: C'est un peu comme l'intelligence.
Joëlle Barral: Exactement. Moi j'aime bien le terme générer justement parce qu'il n'a pas ce il n'a pas d'autre signification que vraiment la capacité à créer des pixels qui constituent l'image.
Monde Numérique: C'est toutes les photos qu'on voit maintenant de plus en plus souvent sur les réseaux sociaux qui sont des des fabrications mais qui sont plus vraies que nature, qui ressemblent à des choses qu'on a vues mais qui ne sont pas des reproductions à l'identique de scènes ou de personnages qui ont existé en fait. Exactement. C'est ça qui est difficile à appréhender. Un peu.
Joëlle Barral: Oui, bien sûr. Enfin que là, que la technologie soit capable de ça, je pense qu'on était tous, et à juste titre émerveillé la première fois qu'on a vu ça. Je crois que c'est vraiment un point d'inflexion, une technologie assez incroyable.
Monde Numérique: Avant de creuser là dessus. Alors ça, c'est les images, mais il y a aussi le texte et la génération de texte. C'est ce qu'on appelle les LLM, les langages modèles. Là encore, c'est une notion qui circule. Mais ça veut dire quoi?
Joëlle Barral: Oui, tout à fait. Donc les grands modèles de langages sont des modèles qui sont entraînés sur des très grandes quantités de données pour produire le résultat. Et c'est c'est vraiment cette quantité de données qui est importante. C'est à dire que pour apprendre les subtilités d'un langage et pour réussir à répondre à des questions et que ça paraisse naturel, il faut vraiment avoir eu beaucoup, beaucoup d'exemples. Vous pouvez considérer un LLM comme un, comme un moteur, avec des probabilités et un certain nombre de paramètres qui le contrôlent. Et ces paramètres sont vraiment comme des comme des boutons. C'est à dire que pour chaque, pour chaque entrée, le modèle, c'est à partir de ces paramètres comment analyser l'information et ça lui permet de doser très finement la contribution. On parle souvent de réseaux de neurones, donc la contribution de chacun de ces neurones pour ensuite générer une réponse la plus probable, la plus appropriée pour un texte donné.
Monde Numérique: C'est ce qui fait que c'est pour ça que quand on parle de la puissance ou de la capacité d'un modèle, on évoque le nombre de paramètres de ce modèle. C'est un peu comme il y a les pixels en photo ou les mégaoctet. Pour les disques durs, c'est le nombre de paramètres qui fait la puissance du modèle de langage ou pas
Joëlle Barral: Oui, en partie, en partie. On a vu, on a vu beaucoup de. Quand on scanne les modèles, c'est à dire quand on, quand on, quand on augmente cette cette taille de modèle, on voit des performances qui sont, qui sont meilleures, enfin qui augmentent sur, sur, sur des évaluations très différentes, mais ce n'est pas forcément. Les plus gros modèles ne sont pas forcément les meilleurs dans tous les domaines et on arrive aujourd'hui à faire aussi des des choses très impressionnantes avec des modèles plus petits. Je pense qu'avant de répondre peut être plus de façon plus détaillée quand on quand on réfléchit un LLM et justement comment un modèle arrive à répondre à une question, je crois que c'est utile de décomposer ça en trois étapes. C'est à dire qu'il y a une étape où on écoute la question et on comprend où le modèle comprend le sens de la question, c'est à dire qu'il transforme cette question en une représentation interne qui contient le sens de la question parce que comme comme suite de mots, ça ce n'est pas une représentation que la machine peut comprendre et par contre il le transforme dans une représentation qui capture ce qui contient ce sens et.
Monde Numérique: Le transforme en chiffres en fait.
Joëlle Barral: Enfin, oui, numérique pour lui. Essayez un peu des termes techniques pour désigner ces étapes et ensuite, une fois qu'il a cette représentation, il va pouvoir aller chercher la réponse, donc chercher l'information qui va répondre à la question. Et derrière il y a le répondre à la question, c'est à dire ensuite formuler la réponse. Et là encore, c'est des probabilités qui interviennent, c'est à dire pour chaque mot, quel est le mot le plus probable, qui va, qui va suivre et en fonction de tout ce qu'il a vu auparavant. Donc, on a énormément de grands modèles de langage de la sorte. Nous, on a fait Bear, même Lambda, Palm Pali. Enfin vous entendez un certain nombre de de noms Palm deux etc de modèles qui comme vous le mentionnez, ont soit de plus en plus de paramètres, soit sont capables de de voir, d'analyser du texte et de l'image et de l'audio, donc des modèles qui deviennent de plus en plus complexes.
Monde Numérique: Ce qu'on appelle multimodaux. Voilà tout à fait. C'est quoi l'échelle de valeur du nombre de paramètres? Les modèles dont vous parlez, ils ont combien de paramètres? Ils ont des. Ils ont des quoi? C'est en millions?
Joëlle Barral: Plutôt en milliards.
Monde Numérique: En milliard de paramètres? D'accord. Le top du top, c'est quoi aujourd'hui?
Joëlle Barral: Je ne suis pas sûr de pouvoir répondre à cette question.
Monde Numérique: Je crois que j'ai entendu parler de 7 milliards.
Joëlle Barral: Delà, oui, on est au-delà des 7 milliards de paramètres. Pour vous donner un exemple, au printemps dernier, on a publié Vite Twenty to be qui à l'époque était le plus gros modèle de vision et qui à 22 milliards de paramètres. Et ça, c'était au mois de mai. Mais pour.
Monde Numérique: Cette notion là qui n'est pas forcément facile à appréhender quand on quand on travaille pas dans l'IA ou quand on n'a pas fait Polytechnique. Cette cause, cette notion de modèle, justement parce que qui dit modèle veut dire en fait boîte à outils pour ensuite faire des tas de choses différentes.
Joëlle Barral: Oui, c'est ça. Je crois que c'est très important à la fois certains modèles peuvent être spécialisés, mais il y a aussi, je pense, que dans le dans ce qu'on voit aujourd'hui, des technologies qui permettent de répondre à beaucoup de tâches et c'est ce qu'on a, je pense, frappé l'imagination avec les modèles de langue de langages les plus récents. C'est à dire que auparavant, on avait l'habitude d'une IA à laquelle qu'on entraînait pour une tâche spécifique reconnaître des chiens et des chats, et elle était capable de reconnaître des chiens et des chats. Et puis elle ne sortait pas de là. Si on lui montrait un dromadaire, elle ne savait pas quoi faire. Alors qu'aujourd'hui, quand on regarde par exemple, encore une fois vide to be, c'est un modèle qui est capable de faire un certain nombre de tâches différentes. Et quelquefois des modèles qu'on s'aperçoit sont capables des modèles de langage qui sont capables de faire des choses qu'on n'avait pas prévu. Ils sont capables de faire des maths et on ne les avait pas entraînés à faire des maths. Ils sont capables de traduire entre deux langues et on ne leur a pas montré de façon de façon explicite ces deux langues distinctes, etc. Donc je crois que ce qui est aussi vraiment propulser le domaine en avant, c'est de réaliser que ces modèles avaient appris un tas de choses sans vraiment qu'on l'anticipe.
Monde Numérique: Mais ça, c'est pas la dimension un peu effrayante de l'intelligence artificielle.
Joëlle Barral: Dans quel sens? Parce que moi je trouve ça plutôt formidable d'arriver à ça.
Monde Numérique: Vous dites voilà, on entraîne un modèle à reconnaître des chats et puis tout d'un coup, il sait faire des équations, ah ah.
Joëlle Barral: Oui, c'est pas tout à fait. On n'a pas, on l'a pas entraîné à reconnaître des chats, on l'a exposé à un très grand nombre de données. Donc c'est pas, c'est pas tout à fait pareil, parce que si on l'avait entraîné à faire des chats et que là il se met à compter, effectivement il y a un problème. Mais non, je pense que effectivement il y a c'est une technologie transformatrice et de ce point de vue là, on peut avoir peur. Et comme comme avant, avec avec de nombreuses, de nombreuses technologies. Donc nous on a une approche à la fois audacieuse et responsable et on a vraiment insisté sur le côté responsable. On se doit d'appliquer le principe de précaution sans brider l'innovation, ce qu'est ce qui est, ce qui n'est pas facile. Ce n'est pas facile à faire, mais je crois que c'est très important de faire les deux en même temps, c'est à dire de ne pas laisser certains innover et d'autres réguler, mais vraiment de regarder les cas d'usage, de se dire qu'on a cet outil formidable qui peut nous aider face aux grands défis de notre temps, que ça va nous faire progresser dans les domaines de la science, de la médecine, vraiment, avec avec des impacts très importants pour beaucoup de personnes, mais que ça doit rester un outil. Et donc comme c'est une véritable révolution, on prend tous les risques au sérieux et on s'efforce de les atténuer tout en développant la technologie. Donc c'est exactement ce que vous dites, c'est à dire qu'il faut trouver un juste milieu et faire les choses petit à petit pour pour appréhender ces risques.
Monde Numérique: Mais ça veut dire quoi concrètement? Joël Barral Ça veut dire que si demain, chez Google, vous découvrez qu'il y a un truc qui va trop loin ou dans une mauvaise direction, vous arrêtez.
Joëlle Barral: Absolument.
Monde Numérique: C'est déjà arrivé ?
Joëlle Barral: C'est à dire que c'est pas du jour au lendemain. Oh, j'ai vu quelque chose, il faut tout arrêter. C'est. Des process. Donc en interne, on a un certain nombre d'instances qui sont indépendantes, des gens qui développent les modèles pour les tester, par exemple sur des sur des évaluations que les équipes qui les qui les développent n'ont pas vues. Donc c'est vraiment des des équipes distinctes. Et ensuite on a aussi des instances qui vont regarder ces modèles selon les cas d'usage pour lesquels on les. On s'apprête à les, à les, à les lancer, C'est à dire est ce que c'est via nos équipes cloud? Est ce que c'est en interne avec certains de nos produits, sur les téléphones, etc. Et et on va regarder l'ensemble des risques, l'ensemble des mitigation, c'est à dire l'ensemble des mesures qu'on a prises pour atténuer ces risques, les résultats des évaluations et ensuite prendre une décision quelquefois avec aussi en consultant un certain nombre de personnes extérieures, ce qu'on a fait pour alpha fold, c'est à dire quand on. Je ne vais pas rentrer dans les têtes tout de suite peut être, mais le le.
Monde Numérique: On va en parler d'Alpha Fold.
Joëlle Barral: Le. Donc la prédiction des protéines quand on a quand on a vraiment eu une technologie qui était capable de de prédire la structure des protéines de façon précise, on s'est demandé si c'était vraiment une technologie qui permet à beaucoup, beaucoup d'acteurs de faire beaucoup de choses. Mais on s'est demandé est ce qu'on la garde pour nous? Est ce qu'on la met à disposition de tout le monde? Est ce que etc. Et là on a vraiment consulté avec, avec de nombreux experts experts externes qui nous ont dit de façon unanime qu'il fallait la mettre à disposition des chercheurs en 2018.
Monde Numérique: Google a publié des principes de l'IA. Qu'est ce que c'est? C'était quoi?
Joëlle Barral: Alors ça, c'était très important. C'est à dire que dès le début, enfin, pas tout à fait le début, mais en tout cas, quand on quand on a vu que l'IA accélérait, c'était important pour nous de reconnaître et le potentiel de cette technologie et les défis. Et donc le premier de ces principes qui énonce que l'IA doit être socialement bénéfique donne le ton. C'est vraiment très important pour nous que d'avoir ce cadre. Et dans les instances dont je vous parlais, où on regarde nos modèles, on se réfère à ces principes et on vérifie qu'effectivement on est bien en conformité avec avec tous ces principes. C'est un cadre, c'est à dire que ça ne veut pas limiter l'action, c'est plutôt des appels à à effectuer notre recherche dans un cadre bien précis avec avec des conditions limites. Mais est ce que.
Monde Numérique: Alors, pardon, mais est ce que ce sont des grandes déclarations d'intention pour être politiquement correct ou c'est vraiment suivi d'effet? Vous êtes chercheuse vous, Joëlle? Est ce que véritablement dans votre travail, vous avez senti et bien que ce cadre était important, qu'il ne fallait pas l'outrepasser, etc.
Joëlle Barral: Ah oui, bien sûr, C'est à dire qu'ils sont opérationnels, c'est à dire que c'est vraiment des principes à la fois. D'abord, ils sont venus de nos équipes de recherche, c'est à dire que ça a été fait, c'est pas parachuté de comme.
Monde Numérique: C'est pas la comme qui a décidé, on va dire ça etc.
Joëlle Barral: Non non non du tout. Et puis et puis ensuite, voilà. Donc c'est vraiment le cadre à partir duquel on réfléchit aux questions qui nous sont posées. Et puis on a, j'allais dire, au delà de ces principes, il s'est passé beaucoup de choses depuis 2018, énormément de chercheurs et d'équipes en éthique, en responsabilité. On n'a pas encore parlé des biais, mais on pourrait. Enfin, il y a énormément de questions que pose l'IA, des risques qui sont liés à la technologie qui n'est pas encore aussi développée qu'on voudrait bien le croire. Parfois, on pourrait parler de d'une technologie qui va mieux marcher sur certains groupes de population que sur d'autres par exemple.
Monde Numérique: Donc voilà, ça c'est la question des biais. Il y avait eu des problèmes au début, les premiers outils, on savait pas reconnaître les personnes noires, etc.
Joëlle Barral: Par exemple. Donc ça, on a énormément maintenant d'évaluations et on pousse la recherche aussi pour arriver à y répondre de façon plus fine, de limiter les biais, ne pas renforcer tout ce qu'on hérite finalement de ce qu'on a trouvé sur internet et donc que ces principes de l'IA nous apportent un cadre pour pour les appréhender l'un après l'autre.
Monde Numérique: Ok, mais vous l'avez dit, le tout c'est de ne pas non plus restreindre l'innovation parce que les chercheurs, ils ont besoin aussi de pouvoir partir dans des directions qu'on n'avait pas prévu avant.
Joëlle Barral: Oui, tout à fait. Et ils le font d'ailleurs. Et il y a une grande différence entre faire de la recherche sur des sujets sans s'en sans brider la recherche et puis décider de transformer ces résultats de recherche en produits particuliers qui ensuite vont impacter des milliards d'utilisateurs. Donc c'est là où la responsabilité est très importante. On peut à la fois pousser la recherche, c'est ce qu'on fait aussi en cybersécurité, où vraiment on veut savoir comment tous nos systèmes vont être potentiellement être attaqués, mais aussi mettre en place la défense qu'il faut avant de. Avant d'ouvrir tous ces outils au grand public, je vais vous.
Monde Numérique: Poser la question basique mais est ce qu'il faut avoir peur de l'intelligence artificielle, celle d'aujourd'hui ou celle de demain? Vous là, vraiment? Encore une fois, vous êtes chercheuse, vous avez les. Vous savez vraiment de quoi vous parlez? Est ce qu'il y a des choses qui vous inquiètent? Ils vous disent, vous vous dites à un moment Waouh, là, attention.
Joëlle Barral: Je pourrais citer Marie Curie qui a dit qu'il faut tout comprendre, ne pas avoir peur mais comprendre. Je crois que c'est très important et de comprendre et que et que tout le monde comprenne. C'est à dire qu'il faut que chacun s'empare de cette technologie, la l'essaye, la comprenne suffisamment pour ne plus en avoir peur.
Monde Numérique: Et si demain on met ça dans pardon, dans des bombes autoguidés, dans des engins de guerre, dans des dans des processus de décision de missiles transatlantiques, vous voyez ce que je veux dire? C'est ça aussi les risques.
Joëlle Barral: Alors, je pense que c'est très important d'avoir un cadre réglementaire par rapport à ces technologies et l'usage qui en est fait.
Monde Numérique: Plus dans la recherche, on est dans la réglementation.
Joëlle Barral: Après, voilà, on n'est plus dans la recherche et on n'est pas dans des cas d'usages sur lesquels Google opère
Monde Numérique: Terminator, vous n'y pensez pas tous les matins, tous les soirs? Non, c'est du tout. Vous n'avez jamais rencontré en travaillant chez Google DeepMind?
Joëlle Barral: Non, j'ai bien regardé.
Monde Numérique: Ni Sarah Connor. Donc tout va bien. Alors on a un peu noirci le tableau. Mais parce que l'IA c'est ça, c'est à double visage, brièvement les grands domaines dans lesquels l'IA pourra être utile, sachant que on retrouvera d'autres épisodes et on se retrouvera dans d'autres épisodes pour aller encore plus en profondeur sur certains thèmes. Mais en gros, l'IA ça peut servir à quoi à part rigoler en posant des questions et en ayant des réponses amusantes?
Joëlle Barral: Oui, c'est vrai qu'il y a un usage assez gadget dont chacun s'est emparé. En fait, nous on pense que l'IA va nous aider à faire progresser notre mission sur quatre sur quatre axes en particulier. D'abord améliorer les connaissances, améliorer l'apprentissage. Ensuite augmenter la créativité, la productivité. C'est bien pour ça que j'hésitais à parler de création plus tôt. C'est à dire que pour moi, la création c'est vraiment quelque chose où l'homme est dans la boucle. Donc c'est vraiment l'homme aidé de l'IA qui va, qui va pouvoir être plus productif, plus créatif. On s'attache vraiment à donner des outils aux autres, c'est à dire permettre aux autres d'innover grâce à l'IA et enfin faire tout cela de manière responsable. Évidemment.
Monde Numérique: Ce sera le mot de la fin. Merci. Joël Barral, directrice de la recherche en intelligence artificielle chez Google DeepMind. Merci Jérôme. Prochain rendez vous avec Google dans un mois pour parler de l'IA au service de la science.