📚 Tout comprendre – L’intelligence artificielle peut-elle rester éthique ?
Maison Connectée22 août 202526:00

📚 Tout comprendre – L’intelligence artificielle peut-elle rester éthique ?

Des chatbots qui dérapent aux algorithmes de justice, des IA qui reconnaissent des visages… ou se trompent lourdement : l’intelligence artificielle n’est plus un scénario de science-fiction, mais un outil bien réel, déjà utilisé dans des secteurs sensibles comme la police, la justice, le recrutement ou la santé.

(Rediffusion du 27 août 2022)

⚠️ Quand la machine se trompe

De Tay, le chatbot raciste de Microsoft, à l’algorithme de Google confondant des personnes noires avec des gorilles, les dérives de l’IA rappellent l’importance d’un contrôle humain. L’épisode montre que ces erreurs proviennent souvent de biais présents dans les données d’entraînement.

🛠 Encadrer et expliquer

Pour limiter ces biais, il faut des données représentatives, une transparence sur l’usage et, si possible, des algorithmes explicables. Le podcast évoque aussi les choix éthiques que doivent assumer les entreprises, comme IBM et Microsoft renonçant à certaines IA jugées trop risquées.

📜 Vers une régulation européenne

L’Union européenne prépare une loi classant les IA selon quatre niveaux de risque, du « minimum » à « inacceptable » (comme le scoring social). L’objectif : instaurer une IA de confiance, sur le modèle du RGPD pour les données personnelles, et imposer ces standards à l’international.

🎧 Ecouter sur votre app de podcast


: Carlos, que tu me reçois ? Affirmatif Dave, je vous reçois 5 sur 5. Je te prie d'ouvrir la porte extérieure A. Je regrette Dave, cela m'est malheureusement impossible. Va bien Carlos. Terminator à Matrix, de 2001 l'Odyssée de l'espace à iRobot, la fiction est pleine d'intelligence artificielle qui déraille. Mais aujourd'hui, l'IA ce n'est plus de la science-fiction. L'IA est partout, dans les entreprises pour les recrutements ou les relations avec les clients, dans des commissariats ou des tribunaux pour aider la police et la justice, et même dans certains pays, dans la rue pour la reconnaissance faciale. Autant de secteurs sensibles où il n'y a pas de droit à l'erreur. Alors comment encadrer l'IA ? Comment éviter les dérapages ? Comment concilier IA et Éthique ? C'est ce que nous allons voir dans cet épisode spécial de Monde Numérique. Cet épisode vous est proposé en partenariat avec Orange qui a choisi Monde Numérique pour vous aider à mieux comprendre la technologie. En mars 2016, Microsoft lance sur les réseaux sociaux un chatbot baptisé Ty, capable de dialoguer avec les utilisateurs. Mais en quelques heures, Ty se met à dérailler complètement, à débiter des insanités, à tenir des propos racistes, à glorifier Hitler, au point que Microsoft est obligé de le débrancher. Que s'est-il passé ? Eh bien, Ty, était conçu pour apprendre à partir des échanges avec les internautes, s'est fait littéralement intoxiqué par des milliers de farceurs ou de personnes mal intentionnées, un peu comme un bébé auquel on aurait appris seulement à faire des bêtises. Un autre exemple, en 2015, un algorithme d'intelligence artificielle de Google est chargé de reconnaître et de classer des images sur Internet. Avions, vélos, chiens, chats. Confrontés à des photos de personnes noires, il les identifie comme des gorilles. Là encore, Google est obligé de retirer son intelligence artificielle et de présenter ses excuses. Ces deux exemples, déjà un peu anciens c'est vrai, mais devenus emblématiques, montrent et rappellent que parfois l'intelligence artificielle peut déraper. Pour en parler, j'ai invité Roxane Adleguier, directrice de Domaine de Recherche Sustainable Digital Society chez Orange Innovation et responsable du secrétariat du Conseil Éthique de la Data et de l'IA du groupe Orange. Alors avant toute chose, revenons à la base, l'intelligence artificielle, qu'est-ce que c'est L'intelligence artificielle, c'est une constellation de techniques qui permet d'imiter l'intelligence humaine, entre guillemets. C'est-à-dire les notions de compréhension, de perception, de planification, des actions et des réponses, le langage, bien sûr, et puis le raisonnement et la décision. Voilà pour une définition générale de l'intelligence artificielle. Quand on creuse un peu, On se rend compte que l'IA, ce sont surtout des techniques algorithmiques de traitement des données. Et ça ne date pas d'hier. Ça date des années 50, mais elle pris un essor phénoménal ces dernières décennies parce que les machines ont évolué avec une puissance beaucoup plus forte, capable de coopérer ensemble et d'avoir en un temps beaucoup plus court des raisonnements et des résultats consistants. Quand on creuse encore, On découvre qu'il y a ce que l'on appelle l'IA faible et l'IA forte. L'IA faible, c'est vraiment le premier degré de l'IA, c'est-à-dire des apprentissages sur des jeux de données avec des résultats et des décisions qui en découlent. L'IA forte est plus proche des films de science-fiction. C'est Hollywood. C'est Hollywood dans lequel les machines imitent vraiment l'intelligence humaine. Elles sont capables de réflexion stratégique, créative, abstraite, tout en traitant un grand nombre de tâches complexes. La différence entre les deux, c'est vraiment entre les tâches très complexes, les décisions complexes et les décisions beaucoup plus simples. Alors quand on parle d'IA aujourd'hui, on évoque rapidement une notion qui devenue assez populaire, le machine learning. De quoi s'agit-il exactement ? La machine learning, c'est une sous-catégorie de l'IA qui comprend des techniques qui permettent aux ordinateurs d'apprendre, exemple, sans être explicitement programmé. Le deep learning est une sous-catégorie de machine learning dans lequel les réseaux neuronaux artificiels, un peu comme les réseaux neuronaux du cerveau, c'est une imitation du cerveau humain, apprennent à partir d'une très très grande, là on parle de big data, grande quantité de données. En particulier les données qui ne pas structurées entre eux, pas classées comme des données de textes ou des données d'images à avoir un résultat, reconnaître une image ou un texte. Voilà pour les définitions de l'intelligence artificielle, histoire qu'on y voit un peu plus clair. Maintenant une question, pourquoi a-t-on peur parfois de l'IA ? Alors cette peur a été largement induite pour différentes raisons, déjà par la science-fiction. Déjà en 1983, Didier de Chousier, un écrivain, avait écrit dans son livre Innis. Il avait imaginé des robots ouvriers agricoles qui se révoltaient contre les exploitants humains. En 1909, le britannique Edward Morgan Foster pousse le bouchon un peu plus loin dans la machine Sareth. Les hommes de sa société futuriste vivent sous la terre, sous la domination d'une immense servoie artificielle. Et puis, avez tous vu Matrix, Blade Runner, etc. qui ont vraiment augmenté un peu ses peurs et ses imaginations sur ce que peut faire l'IA. C'est l'idée de l'IA qui échappe et qui soudain se met à dominer l'intelligence humaine. Exactement. Les robots. Alors à l'époque, l'IA n'existe pas en 1800, mais surtout les robots. Mais c'est aussi induit largement par la prise de parole de personnalités connues. qui vont vous étonner aujourd'hui. Par exemple, Stephen Hawkins qui avait dit, l'IA sera probablement soit la meilleure, soit la pire chose qui puisse arriver à l'humanité, ou le développement d'une intelligence artificielle complète pourrait signifier la fin de la race humaine. Elon Musk qui avait dit, avec une intelligence artificielle, nous convoquons le démon. Ou Bill Gates qui avait dit, les humains devraient s'inquiéter de la menace que représente l'intelligence artificielle. Ces personnages-là, ces personnalités-là sont des personnalités reconnues, écoutées. Et qui viennent de la technologie en plus. viennent de la technologie. Donc les gens l'écoutent davantage et donc prennent en compte ce qu'ils disent. Alors ils ont prononcé ces expressions-là il a un certain temps, mais malgré tout ça reste dans l'imaginaire humain. C'est notion de robots qui vont prendre le pouvoir sur les humains. qui vont avoir des émotions, etc. Donc on ne pourra pas dire qu'on n'était pas prévenu. Si l'intelligence artificielle prend un jour le pouvoir, c'est qu'on l'aura bien cherché. Parce qu'au fond, on comprend bien qu'il a un problème. Comme je l'expliquais tout à l'heure dans les exemples de Microsoft, de Google, le problème c'est que l'IA peut déraper. L'IA peut déraper bien sûr, mais surtout l'IA fait beaucoup d'erreurs. C'est-à-dire que l'IA, il apprend sur des données qu'on lui donne. Le résultat qu'il peut donner, bah... comporter des biais, des erreurs. Par exemple, aux Etats-Unis, le logiciel Compass pour calculer le taux de récidive des personnes qui allaient au tribunal a montré que, disait toujours, que les personnes noires avaient beaucoup plus de risques pour récidiver que les personnes blancs. Tout simplement parce qu'ils avaient pris les données de récidive qui étaient dans les bases de données, ils avaient appris avec ça. Pour autant, ils n'avaient pas introduit. dedans des notions de, par exemple, est-ce que la personne avait déjà, je ne pas, un casier judiciaire, ce que font les juges, les avocats en temps normal, ils regardent les dossiers des personnes et ils portent un jugement humain sur le pourcentage de récidivité. Mais en réalité, moi, ce que j'aimerais bien comprendre, c'est comment ça peut arriver. Pourquoi un algorithme conçu, a priori, on le suppose, avec des intentions louables, par exemple pour tenter d'introduire de la neutralité de jugement. Pourquoi tout d'un coup on se retrouve avec des résultats aussi éloignés que ça de ce qu'on attendait ? Comment est-ce qu'on peut faire pour éviter que cet IA dérape ? Pour qu'une IA ne dérape pas, il faut déjà le jeu de données qu'on met à l'entrée soit à l'image de la société et que ça soit équilibré. C'est-à-dire que si ce jeu de données est basé sur ce qui a été avant, comme l'exemple de logiciels Compass, comporte des biais, parce que l'humain comporte des biais. Il pas oublier que nous-mêmes, a tous des stéréotypes, on est biaisé, etc. Et donc, il faut qu'à l'entrée, ces données soient équilibrées. Il faut savoir qu'un jeu de données équilibrées dans l'absolu n'existe pas, parce que c'est des dizaines de milliers de données, donc tous les vérifier pour voir vraiment tout est égalitaire. Et encore, parce qu'il a la question d'équité aussi, parce que dans l'équilibrage de ces données, l'étape d'après, c'est de faire des choix. C'est-à-dire que si on veut mettre plusieurs contraintes qui peuvent être contradictoires entre les uns et les autres, à un moment, il faire des choix. Bon, parfois ça fait quand même un peu peur. Les accidents d'IA, ça accrédite l'idée que l'intelligence artificielle n'est pas très fiable en fait, et donc elle peut nous échapper carrément. J'avais interrogé à ce sujet en novembre dernier une autre spécialiste, la scientifique et entrepreneuse Aurélie Jean, auteur notamment d'un livre qui s'intitule « Les algorithmes font-ils la loi ? ». C'était à l'époque où on s'inquiétait des dérives de l'algorithme de recommandation de Facebook. Et certains disaient que l'algorithme avait échappé à ses concepteurs. Écoutez ce que disait au réligent. pour extraire même en partie la logique de cet algorithme avant l'entraînement, ce qui veut dire de tester les données d'entraînement pendant l'entraînement et une fois que l'algorithme est entraîné. La transparence des algorithmes, c'est justement l'une des grandes questions qui se posent quand on parle d'éthique de l'intelligence artificielle. Mais rendre les algorithmes transparents, comme on dit, eh bien, c'est pas si simple en réalité. Roxane Adleguier du Conseil Éthique d'Orange. normalement, ils peuvent être transparents sur la finalité de leur utilisation, c'est-à-dire de dire, par exemple, dans tel produit ou service, on utilise de l'IA, mais c'est plus complexe de dire pourquoi l'IA a pris telle décision ou a fait tel choix. Ça, ça rentre dans la notion d'explicabilité qui explique pourquoi un algorithme a donné tel résultat dans le cadre de l'IA. Il y a des algorithmes déterministes où à l'entrée, l'algorithme existe, à l'entrée on leur donne un jeu de données et avec un même jeu de données, on donne toujours le même résultat. Ce n'est pas le cas de l'IA. Dans l'IA, a des algorithmes apprenants qui au fur et mesure évoluent et donc cette évolution, le pourquoi de cette évolution n'est pas toujours évident. Il existe aujourd'hui des algorithmes explicables mais ce pas encore... généralisé parce que l'IA c'est une technique qui évolue tous les jours. donc là, l'explicabilité des algorithmes en soi, c'est un domaine de recherche aujourd'hui fondamental où il a énormément de chercheurs dans le monde qui travaillent dessus encore. Donc le comment il a pris cette décision, moi ça m'intéresse peu si je ne pas informaticienne, etc. Mais ce qui m'intéresse, c'est pourquoi il a pris cette décision et quels sont les choix qu'on a fait pour avoir cette décision. Donc l'intelligence artificielle doit rester sous le contrôle des humains. La transparence des algorithmes ne peut pas régler tous les problèmes. Et ça peut même en poser d'autres selon aux réligents. Moi je ne défends pas la transparence à tout prix. que pour l'Etat oui, pour les outils publics oui. Mais la transparence doit toujours être accompagnée par un document et des supports pédagogiques pour permettre gens de comprendre comment l'algorithme fonctionne. C'est fondamental. Il a beaucoup de gens qui disent « oui, il faudrait que les algorithmes de Facebook soient transparents ». Bah moi je dis non en fait. Je vais vous expliquer pourquoi. que déjà... mettre un algorithme transparent, déjà c'est pas tout résoudre. Pourquoi ? Comme je l'ai bien dit, on peut appliquer des méthodes d'explicabilité sur ces algos, mais on peut aussi l'appliquer avant l'entraînement et pendant l'entraînement. Donc en fait, on s'écarte d'une grande partie de l'explicabilité. Deuxièmement, vous allez forcément freiner l'innovation. Si demain vous me dites « Aurélie, tu dois publier tous tes algos », qu'est-ce qui va se passer ? Je suis pas sûre de déployer en Europe, et surtout ce qui va se passer, c'est que cette transparence va forcément être au profit des plus gros, parce que l'algorithme qu'on a développé... Un Google peut le prendre et après on fait une machine de guerre ou même, façon de parler, c'est-à-dire un truc hyper efficace ou pas du tout, même mal le faire. Lorsqu'une erreur est commise, et il y en a eu des erreurs ces dernières années, que l'acteur soit transparent sur l'erreur et soit transparent sur la manière dont il a fixé l'erreur. Donc au fond, les concepteurs d'algorithmes doivent rendre des comptes. Mais est-ce que certaines IA ne sont pas quand même plus dangereuses que d'autres avec des risques accrus, de biais et de dérives. Là encore, c'est pas si simple. Vous prenez le cas des algorithmes de reconnaissance faciale. Beaucoup de gens pourraient dire que mal. Sauf que c'est mal dans pas mal de contextes. Par exemple, avec les risques de surveillance massive généralisée comme on en voit en Chine, ou comme on peut voir si on a des caméras partout dans la rue et qu'on va commencer à identifier, ça devient un problème. Cela étant dit, Je sais pas si vous l'utilisez, mais quand vous prenez l'avion et que vous passez la frontière, pouvez utiliser... C'est très pratique. Voilà, c'est très pratique. Et moi, j'ai confiance en la police des frontières et notre État pour ne pas mal utiliser ce données. Vous voyez ce que je veux dire ? il faut... Le côté manéken, il faire très attention. C'est pas la technologie en tant que telle. C'est usage. C'est son usage, son utilisation. Et parfois, comment la technologie est conçue. Mais tout ça pose quand même une autre question. Et si certaines intelligences artificielles étaient carrément mauvaises fondamentalement non-éthiques. Des IA dont il vaut mieux carrément se passer parce qu'on sait qu'elles ne seront jamais parfaites ou parce que les risques de dérive sont trop importants. Des entreprises ont décidé de renoncer à certaines technologies. Récemment, IBM, Google et Facebook ont abandonné la reconnaissance faciale parce qu'en soi, provoque beaucoup de questionnements. et Microsoft a annoncé qu'il arrêterait le développement de logiciels qui lient les émotions. Tout simplement parce que déjà d'un humain à l'autre, les émotions ne sont pas catégorisables exactement de la même manière. Et puis les humains, déjà, ils ne se mettent pas d'accord sur les grandes émotions, le rire peut-être, et encore quand il a des larmes. Est-ce que c'est des larmes de joie ou des larmes de... de tristesse. ils ont décidé d'abandonner parce que évidemment, c'est pas déterministe, c'est pas toujours parce que vous avez des larmes, que vous êtes contents ou malheureux. Alors si les intelligences artificielles ne sont pas prêtes à comprendre la subtilité des sentiments humains, eh bien au moins on peut de temps en temps quand même les remettre dans le droit chemin. Exemple avec un logiciel nommé Data Juste expérimenté en France entre 2020 et 2022. pour fixer les indemnités des victimes dans les tribunaux, aux religions. Ils se sont rendus compte d'une chose, c'est que les indemnités reçues par les gens pour des préjudices corporels étaient très différentes en fonction que le cas a été jugé à Toulouse, à Paris, à Lille, à Marseille, à Rennes, à Strasbourg. Ce qui va à l'encontre du principe d'égalité face à la loi. voyez ? Et donc du coup, parfois, des grosses différences. Pour le même préjudice corporel. Des biais ? nous avons des biens en tant qu'humains, les différences de culture entre les régions de France, plein de choses. Je ne sais pas s'ils ont été jusque là mais en tout cas il a des différences et donc ce qu'ils ont fait c'est qu'ils ont décidé d'avoir un algorithme qui proposait des indemnités, une idée d'indemnité pour un certain type de préjudice corporel de façon à faire en sorte que tous les gens étaient égaux face à la loi et pour ça ils ont récupéré toutes les indemnités reçues pour des préjudices corporels. du passé par la Cour de cassation, ce qui leur a permis d'entraîner un algorithme et d'avoir, je demande, à partir, je crois qu'il plus d'une quarantaine de paramètres, ils ont pu du coup proposer, avoir un outil qui suggère une indemnité. Sugérer ne veut pas dire fournir une vérité absolue, ça veut dire le juge, a quelque part une grille, les grilles existaient déjà, mais là, c'est quelque chose de beaucoup plus fin, beaucoup plus pertinent. permet d'uniformiser. Voilà, donc ça, c'est un des outils intéressants à explorer. Alors malheureusement, le programme Data Just a été arrêté début 2022 officiellement non pas parce qu'il ne marchait pas mais parce que son déploiement au niveau national ce serait avéré trop compliqué. Donc si on comprend bien, une bonne IA, c'est une IA bien coachée, bien encadrée par les humains. Ça pose une question intéressante. Sur quels critères exactement faut-il éduquer une IA ? C'est important surtout pour les entreprises qui doivent s'interroger du coup sur leurs propres valeurs. C'est un questionnement qui auparavant, avant l'IA, se posait quand même. Les valeurs d'une entreprise, les choix qu'il doit faire, se posaient quand même. Sauf que derrière, y avait des humains qui décidaient. d'aller dans un sens ou dans l'autre. Aujourd'hui, le fait que certains sujets soient automatisés avec l'IA, engage les entreprises à plus clairement définir effectivement les valeurs, de regarder quels sont les impacts de l'IA sur la société et sur l'entreprise, les collaborateurs à long terme. Quelles sont les valeurs sur lesquelles on tient vraiment pour... Pour avancer les valeurs humaines que nous avons, nous le transposons en programmant dans le système à base d'IA. Donc il faut d'abord les définir. C'est-à-dire c'est quoi mes valeurs à moi ? Souvent des valeurs basées sur la morale. On parle beaucoup du fait que l'IA va remplacer le travail de demain sur par exemple les... Dans les sociétés, on peut se dire est-ce qu'il vaut mieux avoir le plus de surveillance, de vidéosurveillance pour avoir la sécurité, que ce soit à l'intérieur d'une entreprise ou dans une ville ou une région, ou bien il faut préserver la vie privée des gens et ne pas reconnaître les personnes, etc. Donc il y a des choix à faire en fait, il a des choix qui ne pas des choix si faciles à faire que ça parce que À un certain moment, la surveillance est beaucoup plus importante, la sécurité des gens, et à d'autres endroits, c'est la vie privée des gens qui plus importante. Mais alors du coup, ça veut dire qu'il y aurait des bonnes et des mauvaises Et dans ce cas, qu'est-ce qu'il faut penser par exemple de l'intelligence artificielle appliquée à l'armement ? On sait que les armes automatiques pilotées par De Lia, c'est plus de la science-fiction aujourd'hui, ça existe. Mais est-ce qu'on peut pour autant imaginer des armes intelligentes éthiques ? Moi je dirais non. D'ailleurs beaucoup de pays qui ont répondu à cette question, Après il a les détracteurs qui disent oui ça va être plus sûr parce qu'il va mieux déterminer les stratégies et moins forcément tuer. Mais dans tous les cas de toute façon les armes. Il a aussi beaucoup d'incertitudes, c'est-à-dire que comment une arme... peut déterminer, c'est comme la voiture autonome. Est-ce que c'est une personne civile ou une personne qui est l'ennemi ? Ok, on pourrait dire qu'ils regardent les vêtements, est-ce que c'est des vêtements de l'armée ou pas ? Mais on ne pas si la personne est toujours habillée, les membres de l'armée sont toujours habillés avec du verre cacqué, avec des treillis, etc. Donc... Oui, puis en plus, il a rien de plus facile que de changer d'uniforme. sans compter les erreurs que peuvent commettre les IA dont on parlait au début. Comment faire pour tirer le meilleur de l'intelligence artificielle en évitant le pire ? Et bien, c'est devenu une question politique aujourd'hui. L'Europe, par exemple, prépare une réglementation pour les algorithmes d'intelligence artificielle afin de développer une IA dite « lumières », une IA de confiance. Le think tank Digital New Deal, notamment, a travaillé sur cette question. Son délégué général, Arnaud Ponce. Face à ces enjeux-là, il est très important que l'Europe puisse avoir Sa propre vision est de définir une IA qui répond à ses valeurs, ses intérêts. On voit bien que l'impact sur nos vies est énorme. Donc il est important que nous les Européens, arrive à poser une valeur et talons qui deviennent mondiales sur l'IA de confiance. On l'a fait sur les données personnelles, vous savez, avec le RGPD. On a réussi à imposer au reste du monde le fait qu'on respecte les données personnelles. C'est par une régulation qu'on a réussi à faire bouger les lignes et à protéger les internautes. Eh bien, ce qu'on a fait sur les données personnelles, faut le faire sûr. l'ensemble des données et l'ensemble des algorithmes qui régissent nos vies. c'est pour ça qu'il y a de confiance et très structurant. Est-ce qu'on va arriver là aussi sur cet enjeu d'avenir à imposer nos valeurs à travers une régulation ? Mais le problème, c'est que réglementer, comme toujours, ça comporte des risques d'effets pervers. Par exemple, est-ce que cela ne va pas conduire à brider l'innovation technologique et la recherche et donc finalement à nous priver d'outils futurs qui pourraient s'avérer réellement utiles Alors heureusement, apparemment, l'Europe y a pensé. La réglementation européenne, pour la recherche, fait une exception en disant que quand vous faites de la recherche ou de l'innovation, avez le droit, tant que ce n'est pas en production, vous avez le droit de créer des systèmes et de les tester. Cette réglementation, elle va arriver vers 2025. Elle classe les systèmes en quatre catégories de niveau de risque, c'est-à-dire le risque inacceptable qui est... le scoring social, un peu comme ça se fait en Chine, l'identification biométrique en temps réel, surtout dans les espaces publics, les hauts risques, type recrutement, les recrutements uniquement par l'IA, le crédit scoring dont on a parlé, et la gestion des infrastructures critiques, type électricité, route... Et puis les systèmes avec une obligation de transparence, c'est le niveau 3 du risque et puis les systèmes avec un risque minimum. Donc ce qu'ils ont prévu dans cette réglementation, c'est de mettre une documentation des vérifications, surtout pour les hauts risques, les risques inacceptables, normalement ce serait interdit. surtout pour les hauts risques, une documentation, que ça soit clair pour tous les parties prenantes, comment ça a été géré, ce que fait le système, pourquoi il est fait, etc. Après avoir créé l'intelligence artificielle, l'homme parviendra-t-il à faire rentrer le démon dans sa boîte et à mettre l'IA réellement à notre service ? Merci d'avoir écouté cet épisode spécial de Monde Numérique consacré à l'Intelligence Artificielle Éthique en partenariat avec Orange. Réalisation signée Thomas Langlar. Abonnez-vous à Monde Numérique si ce n'est pas déjà fait, faites connaître ce podcast à vos amis surtout, laissez des petites étoiles, des commentaires sur les plateformes de podcast et retrouvez tous les épisodes sur le site monde numérique.info Je que nous n'avons plus rien à nous dire. Adieu.
innovation,numérique,informatique,actualités,technologies,tech news,High-tech,