Le collectif Make.org, a présenté à Vivatech une initiative baptisée "communs démocratiques", visant à créer une IA compatible avec l'usage démocratique.
Ce programme, en partenariat avec notamment le CNRS, Sciences-Po et La Sorbonne, a pour but de "rééduquer" les modèles d'intelligence artificielle pour les débarrasser de leurs biais afin qu'ils soient conformes aux principes des démocraties. Ainsi, ces modèles pourront être utilisés, par exemple, pour co-construire des lois sans biais. Axel Dauchez, co-fondateur de Make.org, souligne l'importance de corriger des défauts inhérents à l'IA, comme les biais d'opinion ou de représentation.
En outre, Make.org a mis au point, en collaboration avec Les Echos, un moteur de recherche sous forme de chatbot dédié au salon VivaTech, VT-Report, qui permet de rendre accessible les contenus des conférences technologiques du salon, révolutionnant ainsi l'accès aux contenus de haut niveau présentés lors de tels événements.
3 questions à Axel Dauchez :
En quoi consiste l’initiative des « communs démocratiques » que vous avez annoncée à Vivatech ?
Cette initiative est une première mondiale. Nous avons créé, avec le CNRS, Sciences Po et la Sorbonne, un programme de recherche inédit, réunissant cinquante chercheurs pendant deux ans, afin de construire une IA compatible avec un usage démocratique, c'est-à-dire une IA qui ne présente pas de biais et qui représente toutes les catégories de citoyens. Ce programme a déjà attiré des universités américaines et pourrait devenir un modèle mondial.
Quels types de biais souhaitez-vous corriger ?
Nous cherchons à corriger plusieurs types de biais, comme le biais d'opinion ou le biais de représentation. Par exemple, le biais d'opinion peut se manifester par des préférences politiques implicites des modèles. Les biais de représentation se voient lorsque certaines professions sont principalement représentées par des hommes blancs de plus de cinquante ans. Nous voulons aussi traiter des biais comme celui de la majorité ou du pluralisme, où l'importance des idées majoritaires et minoritaires doit être équilibrée de manière démocratique.
Concrètement, comment comptez-vous procéder ?
Notre approche n'est pas de créer de nouveaux modèles de langage, mais de fournir des outils pour « rééduquer » les modèles existants, avant de le proposer en open source. Ces modèles débiaisés pourront alors, par exemple, aider des acteurs du politique à co-construire des lois ou toute autre application de l’IA dans le champ démocratique. L’originalité de notre travail est d’inclure une base solide de sciences sociales pour déterminer les principes que l'IA doit suivre, ce qui est crucial pour la compatibilité entre IA et démocratie.
Axel Dauchez:
[0:00] Pour la première fois, la France a créé un chemin qui peut être le chemin le plus important. C'est le leadership sur, finalement, comment la démocratie va se nourrir de l'IA et pas être perturbée par l'IA.
Monde Numérique:
[0:15] Bonjour Axel Dauchez. Bonjour. Vous êtes entrepreneur du numérique, multi-entrepreneur, avec une longue carrière. Vous avez à un moment dirigé la plateforme Deezer, vous avez dirigé le tout premier Vivatech. Et aujourd'hui, vous êtes à la tête d'une organisation qui s'appelle Make.org. De quoi s'agit-il exactement ?
Axel Dauchez:
[0:35] Alors Make.org, ça a été fondé il y a maintenant 8 ans avec Alicia Combaz. Et le principe, c'est d'utiliser la technologie pour réengager très massivement les citoyens dans l'action publique. Donc on a développé plein d'outils pour faire collaborer des millions de personnes avec des pouvoirs publics. On fait ça pour l'ONU, pour les institutions européennes, la France, l'Allemagne, les gouvernements américains, des villes, des régions. Et ça change la donne parce que ça permet une réappropriation de nos institutions et un réengagement des citoyens dans la démocratie.
Monde Numérique:
[1:05] Et donc l'une des réalisations qui est annoncée ici à l'occasion de Vivatech 2024, c'est une initiative qui s'appelle les communs démocratiques.
Axel Dauchez:
[1:15] Ah oui, c'est très très important. Ça a été annoncé à l'Elysée en début de semaine. On a construit avec le CNRS, Sciences Po et la Sorbonne un programme de recherche absolument inédit de 50 chercheurs pendant deux ans dont le rôle précis est de construire une IA qui est compatible pour un usage démocratique. Demain, vous voulez co-construire une loi, vous voulez engager des citoyens. Comment ne pas apporter dans la démocratie des biais de l'IA ? Est-ce que l'IA a une opinion ? Est-ce que l'IA représente toutes les catégories ? Et ça va être ça le travail de recherche pendant deux ans. C'est devenu le premier programme mondial sur le sujet. Les universités américaines nous rejoignent maintenant dans ce projet-là. Donc pour la première fois, la France a créé un chemin qui peut être le chemin le plus important. C'est le leadership sur, finalement, comment la démocratie va se nourrir de l'IA et ne pas être perturbée par l'IA.
Monde Numérique:
[2:08] Concrètement, qu'est-ce que ça veut dire ? C'est une sorte de contre-pied aux entreprises privées qui, aujourd'hui, font de l'IA et ont de plus en plus tendance à rester maîtres de leurs outils alors que, finalement, ça concerne tout le monde ?
Axel Dauchez:
[2:20] Alors, pas tout à fait. Je dirais, en fait, on fait sur l'IA ce qui aurait dû être fait il y a 20 ans sur les réseaux sociaux. Les réseaux sociaux, c'est génial, c'est vachement bien. Mais dans des cas d'usage particulier et notamment les élections, ça a des effets pervers. Il faut les regarder avec attention. Et c'est ce qu'on fait maintenant sur l'IA. Donc, pratiquement, on va travailler sur réinventer les principes démocratiques à l'âge de l'IA. C'est un travail qu'on va faire avec Science Pro, qui est un travail de philosophie politique. Et sur la base de ces principes, on va déterminer un modèle d'évaluation de modèles de langue, de chat GPT, etc., de façon à les corriger. Et du coup, à la fin, d'avoir des IA en open source qui sont accessibles à tous, mais qui ne portent pas des biais et qui sont donc compatibles avec la démocratie.
Monde Numérique:
[3:07] Bon, après, on sait qu'aussi les grandes plateformes, OpenAI, Google, etc., sont conscients des problèmes de biais et autres et travaillent beaucoup là-dessus. Qu'est-ce que vous pouvez apporter de plus ?
Axel Dauchez:
[3:19] Alors, en fait, c'est tout à fait. Tout le monde essaye de trouver des solutions à tout ça. La particularité, c'est ça d'ailleurs qui a intéressé Harvard quand il nous a rejoints. La particularité, en l'occurrence, c'est qu'on a une base de sciences sociales très forte. C'est-à-dire que tout le monde travaille sur des modèles pour orienter ou éduquer l'IA, mais assez peu de gens travaillent sur les principes que l'IA éduquée doit suivre. Et ça, c'est un travail théorique extrêmement important qui va servir non seulement pour maintenant, mais aussi pour les futures générations de l'IA. Donc c'est vraiment un chemin qu'on ouvre pour mettre l'IA durablement au service de la démocratie.
Monde Numérique:
[3:58] Mais ça veut dire quoi ? Ça veut dire créer de nouveaux grands modèles de langage qui sont donc les moteurs de l'intelligence artificielle générative aujourd'hui, où ça veut dire faire ce qu'on appelle du fine-tuning, donc intervenir après pour corriger, rectifier les biais. À quel endroit vous situez votre intervention en fait ?
Axel Dauchez:
[4:17] Alors, ce n'est pas du tout de reconstruire des nouveaux modèles de langage, des mistrales.
Monde Numérique:
[4:22] L'idée, ce n'est pas de réinventer la roue.
Axel Dauchez:
[4:23] Ah non, surtout pas. C'est de donner la boîte aux outils pour que les modèles existants en open source puissent être rééduquées de façon à être débiaisées. Donc c'est vraiment un outil très pratique. Dans deux ans, n'importe quelle ville dans le monde pourra co-construire une loi sans inviter de biais en prenant les modèles de langue rééduqués qu'on aurait mis en place.
Monde Numérique:
[4:45] Ok, donc vous prendrez par exemple du Mistral, Open Source, mais rééduqué.
Axel Dauchez:
[4:49] Mistral, Dulama, peut-être qu'il y en aura plusieurs en fonction des cas d'usage. C'est une démarche de recherche, donc on va aussi construire en durée. Mais ce qui est révolutionnaire c'est cette interconnection entre d'une part une recherche académique en sciences sociales et les meilleurs de l'IA au monde en ce moment.
Monde Numérique:
[5:08] Est-ce que ce n'est pas un peu utopique ? Est-ce que vous espérez que véritablement ces outils-là soient adoptés ? Soit préconisé ?
Axel Dauchez:
[5:18] Moi, je sens une exigence sur l'IA éthique partout. L'IA va s'immiscer dans tous les processus publics et les États sont beaucoup plus rapidement conscients des risques qu'ils ont eu à l'arrivée des réseaux sociaux. Donc oui, la demande pour avoir des solutions qui ne soient pas biaisées va exploser complètement. Le parti pris, et c'est la chance d'avoir été financé par la BPI et France 2030, le parti pris, c'est d'en faire un commun numérique, c'est-à-dire d'en faire des outils qui seront accessibles gratuitement à tous. Et c'est en ça que ça va revenir vertueux pour le marché.
Monde Numérique:
[5:51] Est-ce qu'on peut prendre un exemple ? Quel risque de biais, quel type de biais vous espérez corriger ?
Axel Dauchez:
[5:57] Alors, les biais connus, c'est le biais d'opinion, évidemment. Est-ce que Tchad-GPT est de gauche, de droite ? Compliqué, le biais d'opinion, parce qu'entre gauche-droite française, libéral-socio-démocrate allemand, républicain-démocrate aux États-Unis, c'est très compliqué, mais il est connu, celui-là. Le biais de représentation, vous dites docteur, vous n'avez que des hommes blancs de plus de 50 ans. Celui-là aussi commence à être documenté. Mais il y en a d'autres qui nous plaisent pas mal, on va tous les traiter. Par exemple, le biais de majorité ou de pluralisme. Quand vous faites une synthèse d'un énorme corpus, quelle place vous donnez aux idées majoritaires et aux idées minoritaires ? C'est un acte politique majeur. Et aujourd'hui, il n'y a pas de principe établi. Et donc c'est là où le travail va nous permettre de commencer à poser les bases de ce qu'on appelle la démocratie dans des cas qui n'existaient pas du temps de Tocqueville.
Monde Numérique:
[6:44] Et donc ensuite, vous espérez qu'on ira grâce à ça vers une IA ? Plus, comment dire, qui fera moins peur d'une certaine manière ?
Axel Dauchez:
[6:55] Alors, je pense que c'est un enjeu énorme. Il faut traiter le sujet de la peur de l'IA, surtout dans des cas d'usage particulier que sont les processus publics. Il y a un enjeu important. Un de nos partenaires, c'est Hugging Face, qui est la place de marché de tous les modèles.
Monde Numérique:
[7:10] Hugging Face, entreprise basée aux Etats-Unis, mais créée par des Français.
Axel Dauchez:
[7:14] Exactement.
Monde Numérique:
[7:15] Qui est une sorte, effectivement, de supermarché des modèles d'IA.
Axel Dauchez:
[7:18] Vous avez vu, il y en a 400 000. Voilà. Et Huggingfest, au jour le jour, les scores, ils ont un contrôle panel, un tableau où on voit la qualité, la performance de chacun. Un des enjeux, ça serait de convaincre Huggingfest, partenaire, de mettre en natif, dans tout son traitement, les scores de « est-ce qu'on respecte la démocratie ? ». Et donc voilà, c'est en ça que ça va devenir un phénomène durable pour une compatibilité durable entre IA et démocratie.
Monde Numérique:
[7:45] Donc dans le futur par exemple il y aura probablement des solutions, je ne sais pas, labellisées, estampillées, compatibles, éthiquement compatibles, éthiquement certifiées et puis d'autres qui ne le seront pas ?
Axel Dauchez:
[8:00] Absolument et j'espère que les pouvoirs publics vont être très exigeants dans leurs usages propres. C'est vraiment ça aussi l'enjeu, c'est d'augmenter le niveau de maturité et d'exigence de la demande publique pour que ça soit propre. En revanche, l'éthique me paraît un autre sujet. C'est très compliqué, l'éthique. Quand on veut être démocratique, on accepte des propos immoraux qui sont pourtant légaux. Dans l'éthique, c'est compliqué. Nous, on n'est pas dans l'éthique. On est les principes de la démocratie appliquée à des cas d'usage de l'IA.
Monde Numérique:
[8:29] Très bien. Axel Dauchet, autre initiative que vous lancez ici à l'occasion de Vivatech 2024. C'est un moteur de recherche pour explorer toute la richesse de contenu qui est produite ici par les intervenants, les speakers, tous ceux qui prennent la parole. C'est un chatbot conversationnel dédié à Vivatech.
Axel Dauchez:
[8:52] Alors là, c'est vraiment une première mondiale. Il n'y a aucun grand salon qui a fait ça. C'est une initiative qu'on a montée avec Les Echos, avec Vivatech et avec Magic Lamp. Et le principe, c'est de prendre toutes les conférences, tous les flux vidéo des conférences et d'en faire, de mettre une intelligence artificielle qui va uniquement regarder ce qui s'est dit dans les conférences. Alors du coup, c'est magique parce qu'on peut dire mais qu'est-ce qu'a dit Yann Lequin ? Qu'est-ce qu'il y a de nouveau sur la health tech ? Comment évolue le métier du CMO ? Est-ce qu'il y a eu des innovations qui concernent l'environnement ? Dans un salon comme ça, il y a des speakers exceptionnels, des conférences de très haut niveau. Malheureusement, il n'y a que peu de personnes qui ont le temps et l'occasion de pouvoir y accéder. Et là, pour la première fois, on rend ces contenus hyper accessibles. Et c'est une révolution. C'est une révolution dans le rapport entre le contenu et l'usage. Il ne suffit pas d'avoir trois heures. En deux minutes, on peut déjà être partie prenante d'une conférence.
Monde Numérique:
[9:48] Donc ce moteur de recherche, ce chatbot moteur de recherche, il s'appelle comment et on le trouve où ?
Axel Dauchez:
[9:52] Alors en fait, l'initiative globale s'appelle VivaTech AI Report sur vt.report.mec.org et ça contient à la fois le panoramique, ce qu'on vient de dire, cet outil absolument incroyable, ça contient ce que les échos en font, parce que les échos du coup inventent un journalisme qui va se nourrir de ces initiatives et ça contient aussi un truc absolument fabuleux que fait Magic Lamp. C'est une sorte de démonstration de tout ce qu'on peut faire avec l'IA sur les conférences et ça vaut vraiment le détour. Donc vraiment, allez voir, c'est vraiment le VivaTech et iReport, c'est une révolution mondiale.
Monde Numérique:
[10:27] Cette initiative, elle est disponible uniquement pendant VivaTech aux participants de VivaTech ou bien elle sera accessible à tous après le salon ?
Axel Dauchez:
[10:32] Elle est accessible à tous, vraiment. Chaque jour, vous avez toutes les conférences des jours précédents, accessible à tous, VivaTech, pas VivaTech. VivaTech devient un hub, une sorte d'académie du savoir autour de la tech pendant trois jours dans le monde.
Monde Numérique:
[10:48] Merci beaucoup, Axel Dauchez, Make.org.
Axel Dauchez:
[10:51] Merci beaucoup.