Sommet IA - ChatGPT ne peut pas remplacer l'école (Laurence Devillers, Sorbonne Université)
19 février 202509:47

Sommet IA - ChatGPT ne peut pas remplacer l'école (Laurence Devillers, Sorbonne Université)

A l'occasion du sommet mondial sur l'IA, je me suis entretenu avec la spécialiste de l'IA Laurence Devillers à propos des rapports entre l'école et l'intelligence artificielle.

Comment l'intelligence artificielle peut-elle transformer l'éducation ? Quels sont les risques et les opportunités de son intégration à l'école ? Laurence Devillers, chercheuse en intelligence artificielle à Sorbonne Université et présidente de la Fondation Blaise Pascal n'a pas l'habitude de mâcher ses mots. Dans cette interview, elle évoque notamment :

- L'émergence d'une "troisième voie" européenne en matière d'IA, entre les modèles américains et chinois.
- L'importance de capturer et valoriser les données en Europe pour le développement de l'IA.
- Les limites des outils génératifs comme ChatGPT pour l'apprentissage des enfants.
- Comment l'IA pourrait améliorer l'enseignement des concepts abstraits en mathématiques et autres disciplines.
- L'enjeu de l'esprit critique et de l'éthique dans l'apprentissage des technologies.
- Les initiatives internationales pour encadrer l'usage de l'IA, notamment au travers de coalitions internationales.
- Les risques liés à l'IA en milieu scolaire et professionnel, et comment les atténuer.
- La nécessité d'un "permis de conduire" de l'IA pour mieux comprendre et maîtriser ces technologies.

Cliquez sur le bouton "play" ▷ en haut de la page pour écouter l'épisode 


Monde Numérique :
[0:01] Bonjour Laurence Devillers.

Laurence Devillers :
[0:03] Bonjour Jérôme.

Monde Numérique :
[0:04] Chercheuse en intelligence artificielle, spécialiste de l'IA Sorbonne Université. Ce n'est pas une surprise de vous retrouver ici au sommet mondial sur l'action pour l'IA. Qu'est-ce que vous en pensez de ce sommet ?

Laurence Devillers :
[0:15] Écoutez, je pense que c'est une excellente initiative d'avoir une troisième voie par rapport aux Etats-Unis et à la Chine. On apprend de plus en plus en expérimentant. On commence à avoir des licornes qui sont plus que des licornes, Mistral et Haï ou d'autres. Il faut absolument qu'on capture des données en Europe et qu'on soit capable de construire des verticales sur plein de sujets. Et là, il y a une vraie force pour l'industrie, pour l'économie,

Laurence Devillers :
[0:40] pour la médecine, la santé. On peut trouver une innovation fulgurante. Pour l'éducation, je suis un peu plus mitigée.

Monde Numérique :
[0:47] C'est-à-dire ?

Laurence Devillers :
[0:48] Je ne pense pas que c'est avec un chat GPT qu'on va apprendre aux enfants des choses fabuleuses. Les enfants ont besoin d'ouvrir, d'augmenter leur compréhension, ou d'aider leur compréhension via des outils très différents. Par exemple, j'imagine en première la difficulté de la continuité, de la dérivabilité ou des intégrales. Tout le monde est passé par là. Eh bien, si on avait eu un outil qui nous permette de visualiser ça en 3D avec une interface IA qui permet de changer des paramètres, de voir ce qui se passe et tout, on aurait beaucoup mieux compris cette abstraction. C'est là qu'il faut aller. C'est qu'est-ce qu'apporte en fait cet outil en plus de ce qu'on pouvait faire avec l'école. Donc l'école, pour moi, c'est un temps où on n'a pas du tout de machine. Et on fait avec la main et son cerveau, un temps où on va chercher dans les machines quelque chose de très nouveau, et ce n'est pas forcément Tchad GPT qui enfousit tout d'idées, n'est-ce pas ? Et en troisième, il faut apprendre surtout aussi les concepts qui sont derrière ces IA, comment elles sont faites, parler d'éthique aux enfants, d'usage, et à la Fondation Blaise Pascal, dont je suis présidente, avec des gens très connus comme Cédric Villani, Hugo Duménil et beaucoup d'informaticiens très connus, Serge Habitboul, etc.

Laurence Devillers :
[1:56] Nous avons en fait essayé de pousser des alternatives, des choses plus intéressantes pour l'école. Ce n'est pas encore le cas de notre école. Nous, par exemple, pour la primaire, on propose des capsulias éthiques pour que les enfants apprennent les usages. Ce n'est pas la grande éthique philosophique, c'est des choses très appliquées. Mais on va leur dire, par exemple, la prise de ton attention, il y a un côté dopamine dans tout ça. C'est-à-dire qu'on va chercher à te faire plaisir, à te garder le plus longtemps possible devant une plateforme. C'est pour ça que tu restes et que tu ne veux pas écouter tes parents, par exemple. Avec des petits films pour les enfants de 8-10 ans en primaire, on pourrait préparer des cerveaux à être plus agiles et avoir plus un esprit

Laurence Devillers :
[2:34] critique et créatif vis-à-vis de ces outils.

Monde Numérique :
[2:38] On parle parfois de l'IA comme un moyen de faire de la formation sur mesure, c'est-à-dire d'adapter beaucoup plus spécifiquement la pédagogie à chaque profil, etc. Vous y croyez ou pas ?

Laurence Devillers :
[2:49] J'ai dû. Oui, d'une certaine manière, oui, mais c'est quand même très compliqué, dans le sens où le surmesure risque aussi d'être la prothèse. C'est-à-dire qu'en fait, il faut faire un effort pour apprendre. Alors, il faut construire des choses nouvelles pour apprendre, mais pas forcément délayer vers une solution où tout, pas à pas, est fait pour vous. Il faut que vous appreniez à raisonner. L'école s'est faite pour apprendre à apprendre. Et si on oublie ça et qu'on fait des ersatz de systèmes qui délaient pour nous le plan ou la façon de raisonner, est-ce qu'on va apprendre à raisonner ?

Monde Numérique :
[3:24] Il y a un plan qui vient d'être annoncé par Elisabeth Borne pour faire entrer l'IA à l'école. Ça va dans le bon sens ou pas ?

Laurence Devillers :
[3:30] Globalement, oui. Mais qu'est-ce qu'il sera fait ? J'ai entendu parler de MOOC qu'on donnerait aux enfants pour qu'ils apprennent ce que c'est que l'IA. Il me semble que ce n'est pas suffisant. C'est en intelligence collective qu'on doit apprendre ça. C'est-à-dire que nous, on a fait des capsules IIT avec trois minutes d'écran, si vous voulez, et une heure de discussion avec le prof, qu'on a culture en même temps, sur tous ces termes, pour essayer de comprendre comment la machine capture mon attention, comment je vais être harcelée, qu'est-ce qu'un cookie, qu'est-ce qu'être une fille ou un garçon sur Internet, qu'est-ce que l'ordinateur fait mes devoirs, qu'est-ce qu'il fait ? Est-ce qu'il nous dit la vérité ou pas ? Qu'est-ce que je dois challenger ? Comment l'utiliser ? Des choses comme ça, très pratiques, très pragmatiques. Je pense qu'on a besoin de cette vision-là pour démystifier l'IA auprès du plus

Laurence Devillers :
[4:15] grand nombre et auprès de nos enfants à l'école très jeunes.

Monde Numérique :
[4:17] Il y a une autre initiative également à laquelle vous êtes associée.

Laurence Devillers :
[4:22] Au sommet, c'est l'idée d'avoir des actions en commun au niveau international pour justement aller dans les bonnes directions, que ce soit pour une plus grande économie, une meilleure gestion des données de santé ou alors une meilleure prise en compte des dépenses d'énergie et travailler sur la transition écologique. Mais c'est aussi pour le bénéfice de nos enfants. Donc il y a un workshop cet après-midi où je serais qu'il y ait une coalition internationale. On a fait signer beaucoup de pays et on va aller beaucoup plus loin dans l'idée justement de travailler sur le développement de l'enfance face à ces outils. On voit des rapports de l'Europe qui sont un peu questionnants quand même. Une plus grande myopie en 2030, beaucoup d'enfants seraient beaucoup plus myopes. Ils auraient des problèmes de sommeil et des problèmes d'attention. On a beaucoup d'articles scientifiques en neurosciences et en éducation qui arrivent, qui montrent qu'il faut faire attention à certaines limites sur les écrans. Et donc, c'est important. Ce n'est pas les écrans en soi. Moi, je pense que les écrans, on peut en faire des choses extrêmement bien. Et en même temps, on peut devenir légumes devant et regarder la prothèse faire pour nous. Donc, c'est en ça qu'on a besoin de réfléchir et d'aller un peu plus loin que ce qui est proposé aujourd'hui en France. Et j'espère qu'à l'international, donc avec des Américains, des Indiens, des Chiliens, des Marocains, on commence à monter cette coalition. C'est quelque chose qui a été monté par Everyone.ai et qui vient déjà de Paris

Laurence Devillers :
[5:44] Peace Forum et qui continue grâce à l'AI Action Summit.

Monde Numérique :
[5:48] Laurence de Villers, il y a des risques quand même. Ce que vous venez d'évoquer ici, ça peut faire peur aux parents d'élèves, aux enseignants. Et puis d'une manière générale aux travailleurs, le mythe de l'IA qui va remplacer les emplois ou qui va nous obliger à travailler différemment, qu'est-ce qu'on peut dire pour rassurer tout le monde un petit peu ?

Laurence Devillers :
[6:04] D'abord, on ne va pas remplacer tout le monde, ça c'est sûr, parce que de toute façon l'IA fait que des tâches. Donc elle ne remplace pas des humains, elle est très non-humaine et absolument pas intelligente dans l'espace, le sens commun, tout ce qui fait de nous des humains, les relations entre les gens, les émotions... On est devant quelque chose qui est un outil, certes, qui répond différemment d'un marteau. Ce n'est pas un marteau, c'est bien plus complexe, mais il faut qu'on l'apprivoise. Et si je faisais le parallèle, vous avez tous des voitures. Une voiture, vous savez conduire, vous avez appris avec un permis. Il y a des signalisations. Prenons le même parallèle pour l'IA. L'IA, on va faire des règles. Vous passerez peut-être une formation qui sera votre permis de conduire, l'IA. Et arrêtons de se prendre, d'avoir peur à chaque virage. Je veux dire, si, évidemment, on peut prendre le virage en allant dans le fossé, mais comme en voiture.

Monde Numérique :
[6:53] Oui, c'est ça. Les humains peuvent avoir des accidents. Et c'est pour ça aussi qu'on va vers la voiture autonome, où finalement, c'est la machine qui va s'occuper de tout.

Laurence Devillers :
[6:59] Mais la voiture autonome, il faudrait savoir si vraiment elle est autonome. Parce que ce qu'a fait Google, ce n'est pas vraiment autonome à San Francisco. Il y a des petits malins qui dirigent à distance parce que ce n'est pas complètement fiable.

Monde Numérique :
[7:10] Pas à 100%, pas sur la totalité du parcours.

Laurence Devillers :
[7:12] Pas sur la totalité du parcours, mais dès que la machine est plantée quelque part, parce qu'elle ne sait pas se retourner, il y a quelqu'un qui prend le relais. Donc je veux juste dire...

Monde Numérique :
[7:17] C'est un bon mix, ça ?

Laurence Devillers :
[7:18] C'est un bon mix. Je veux juste dire, justement, ça peut le montrer, que ces IA génératives ne sont pas à 100% sûres. Et elles n'ont pas raison. Je veux dire, il ne faut pas douter de sa propre rationalité face à une machine. Quand vous demandez à TchadGPT un truc, faites un pas de côté, regardez bien. Qu'est-ce qu'il a dit ? D'où ça vient ? Les sources, il les a reconstruites, elles peuvent être fausses. Et ce n'est surtout pas un collègue, ni un copain, ni un insistant, ni un ami. Ça n'a rien à voir. Parce que la première fois, il peut très bien vous répondre comme ça. Et la deuxième, hop, il part sur autre chose. Donc il y a un côté aléatoire dans tout ça. C'est une machine qui calcule et elle ne résonne pas. Elle n'a pas de sens moral, elle n'a pas d'affect, elle n'a pas de connaissances.

Monde Numérique :
[7:59] Oui, mais c'est hyper bien imité parce qu'elle nous brosse dans le sens du poil. Quand elle répond bien, moi je lui dis je t'aime, elle me répond je t'aime aussi.

Laurence Devillers :
[8:06] Vous en connaissez beaucoup des gens qui répondent comme ça, à part des perroquets ?

Monde Numérique :
[8:09] Non, et c'est pour ça qu'est-ce qu'on ne risque pas de se détourner des humains ? Parce que finalement, les IA sont plus sympas.

Laurence Devillers :
[8:14] Bon non, elles sont vraiment limitées et très ennuyeuses au bout d'un moment. Si on veut continuer à créer, alors c'est pas vrai dans le développement des enfants, c'est-à-dire que si la machine répond à quelque chose, Et c'est ce que j'ai vu à travers les expériences que j'ai pu faire. C'est-à-dire que les machines arrivent à convaincre plus les enfants de faire une action ou pas plutôt que les humains. On avait fait ça avec des économistes du comportement, avec des robots, avec des chatbots et des humains. Dans la même circonstance, un jeu du dictateur où on donnait 8-10 billes à un enfant en disant combien tu en prends pour toi, combien tu en donnes aux autres. Et ensuite, il y avait un jeu de nudge, c'est-à-dire que la machine ou le robot ou l'enceinte ou l'humain disaient les autres ont donné plus. Moi, j'en donnerais moins. Et on regardait comment l'enfant changeait d'avis. Eh bien, il changeait majoritairement d'avis devant des machines. C'était des petits-enfants de 7 à 9 ans. Et effectivement, il y avait une espèce d'autorité dans la machine qui devait jouer et qui faisait qu'il suivait ce qu'elle disait. Donc, cette autorité, il ne faut pas qu'on la retrouve quand même à l'école avec un TGPT qui va vous convaincre peut-être de quelque chose qu'il faut. Donc c'est à nous de faire en sorte que nos enfants soient suffisamment stimulés et curieux sur ce que répond la machine pour challenger. Et aux parents, je dirais, faites la même chose. Essayez de challenger ces machines avec vos enfants. C'est à plusieurs, en collectif, qu'on va gagner.

Monde Numérique :
[9:36] Merci beaucoup Laurence de Villers.

Laurence Devillers :
[9:37] Merci Jérôme.

ia,intelligence artificielle,enseignement,éducation,