Du nouveau ChatGPT vocal au générateur de podcast de Google Notebooks LM, l’intelligence artificielle devient de plus en plus bavarde. On parle aussi d'Apple Intelligence, des lunettes connectées de Meta, d'Anthropic qui invente une IA capable de piloter un ordinateur et de l'IA au service de l'environnement chez Amazon.
![]() |
Depuis quelques semaines, je parle plus que d’habitude à mon smartphone. C’est à cause du mode vocal avancé de ChatGPT. Accessible jusqu’à présent uniquement grâce à un VPN, le service est désormais disponible officiellement en France (pour les abonnées payants). Franchement, c’est une claque !
Cette semaine, j’ai également demandé à Google NotebooksLM de transformer un bouquin entier en épisode de podcast : le résultat est à tomber par terre.
Bref, les IA deviennent de plus en plus bavardes. C’est assez déroutant. Sommes-nous prêts ?
L’actu, c’est aussi :
Apple Intelligence arrive… aux Etats-Unis, mais pas en Europe (7:28)
Les lunettes connectées de Meta se vendent comme des petits pains (10:45)
Les big tech raffolent du nucléaire (12:11)
Le Debrief Transatlantique
Avec Bruno Guglielminetti (Mon Carnet) (13:32)
Anthropic lance une IA capable de prendre le contrôle de votre ordi ! (18:04)
Les fabricants de TV connectées surveillent ce que l'on regarde pour cibler la publicité
L'IA qui transforme les livres en épisodes de podcast
(25:33) L'innovation de la semaine : on revient sur Notebooks LM, cette étonnant service de Google qui permet transformer une grande quantité de données, réparties éventuellement sur des documents différents, en conversation audio entre deux personnes. Bluffant !
Mariage d’amour entre la robotique et l’IA
Interview : Yannick Léo, associé directeur de la Data Science au sein du cabinet Emerton
La robotique et la data science convergent. Les robots vont désormais apprendre à faire des choses, comme les IA, par mimétisme et répétition des tâches effectuées par les humains
Comment Amazon dompte l’IA au service de l’environnement
[PARTENARIAT]
Interview : Kara Hurst, vice-présidente Développement durable à l'échelle mondiale chez Amazon
De passage à Paris, Kara Hurst, Leads Worldwide Sustainability, présente les initiatives du groupe américain en matière de protection de l'environnement, notamment grâce à l'intelligence artificielle. (41:17)
Crédit social : de moins en moins de la science-fiction
Chronique "Echos du Futur"
Olivier Parent nous parle de l'épisode "Chute Libre" de Black Mirror, qui décrivait, avant l’heure, le crédit social à la chinoise. Dystopie ou réalité future qui pourrait un jour nous concerner aussi ? (50:08)
Monde Numérique :
[0:11] L'IA nous parle et elle devient de plus en plus bavarde. L'IA nous parle avec le mode vocal avancé de ChatGPT qui arrive enfin en France. Et l'IA nous raconte des histoires, des podcasts plus vrais que nature avec Notebooks LM de Google que j'ai testé, je vous dis tout.
Monde Numérique :
[0:29] Avant cela, l'actu de la semaine, c'est Apple qui lance Apple Intelligence, mais pas en France. Les lunettes connectées de méta qui se vendent comme des petits pains. Et puis les géants de la tech qui s'intéressent de plus en plus au nucléaire. Dans le débrief transatlantique avec Bruno Guglielminetti, on s'intéressera à la nouvelle IA d'Anthropic qui peut carrément prendre le contrôle de votre ordinateur. Et puis dans la deuxième partie de cette émission avec mes invités, on s'intéressera au mariage entre la robotique et l'intelligence artificielle, ce qui va tout changer pour l'apprentissage de ces robots. On en parle avec un spécialiste, le data scientist Yannick Léo. Amazon essaye de limiter l'impact environnemental de l'intelligence artificielle. Vous entendrez la responsable de la durabilité chez Amazon Monde, Cara Hurst, qui était à Paris il y a quelques jours. Enfin, on retrouvera le prospectiviste Olivier Parent qui décrypte les films de science-fiction et il nous parle sous mois de l'épisode Chute libre de Black Mirror.
Monde Numérique :
[1:29] Bienvenue à l'écoute de Monde Numérique, l'émission 100% Tech. Chaque samedi sur toutes les plateformes de podcast. C'est l'hebdo du 26 octobre 2020.
Monde Numérique :
[1:45] Ravie de vous retrouver et ravi d'avoir retrouvé ma voix aussi, enfin presque, parce que ce n'est pas encore tout à fait ça. Mais si vous étiez là la semaine dernière, vous savez que c'était pire puisque je n'avais carrément plus de voix du tout. Ce qui m'a conduit à vous proposer un épisode assez exceptionnel, réalisé entièrement avec une voix clonée par intelligence artificielle. Au moins, c'était l'occasion d'innover un peu et ça a suscité pas mal de réactions et de commentaires intéressants. D'ailleurs, beaucoup d'auditeurs m'ont dit que s'ils n'avaient pas été prévenus qu'il s'agissait d'une voie de synthèse, eh bien, ils ne s'en seraient pas forcément rendus compte. Voilà, donc cette semaine, en tout cas, c'est de l'humain qui reprend le micro. Pour Monde Numérique, l'hebdo, comme chaque samedi, 50 minutes de news, d'interviews, plus d'une heure si vous êtes abonné à la version premium sur Apple Podcast.
Monde Numérique :
[2:31] Quelques remerciements rapides, d'abord pour vos dons, en espèce sonnante et trébuchante, car vous pouvez soutenir financièrement le podcast Monde Numérique si vous le souhaitez. Alors, merci du fond du cœur à Valérie qui non seulement met la main au porte-monnaie mais en plus estime que Monde Numérique c'est le meilleur podcast tech francophone. Non, je t'ai plu. Merci Valérie. Merci également à Karim. Et puis, merci pour vos messages à Lionel qui apprécie, dit-il, la variété des rubriques de Monde Numérique, à Mickaël qui a bien rigolé en écoutant l'épisode Bétisier qui résumait tous les ratages de l'IA vocale et à Nicolas qui, lui, dit qu'il avait remarqué dès les premières secondes qu'il s'agissait d'une voix de synthèse la semaine dernière. On a de plus en plus de messages sur Spotify, notamment. Donc, merci, merci pour votre collaboration, pour votre interactivité. Parlez de ce podcast à votre entourage, surtout, et quelle que soit la plateforme d'écoute sur laquelle vous l'écoutez, vous pouvez réagir.
Monde Numérique :
[3:27] Ça y est, il est là, lancé en septembre 2024, un peu partout dans le monde, sauf en Europe le nouveau tchat GPT vocal est arrivé cette semaine en France et dans les pays européens le 22 octobre. Vous aviez pu le découvrir dans Monde Numérique en avant-première, il y a quelques mois déjà, avec une interview exclusive de Romain Huet, de OpenAI. Et donc là, maintenant, tout le monde peut en profiter. Ce nouveau mode vocal avancé de Tchadjipiti, qui permet donc de discuter de manière encore plus agréable, encore plus fluide. C'est assez impressionnant. Il imite les émotions humaines, les rires, les hésitations, etc. Et puis, on peut lui couper la parole, comme dans une vraie conversation avec un humain. Et derrière cela, c'est ChatGPT 4O qui est encore plus puissant que le moteur d'avant. Alors, il faut un abonnement payant pour accéder au nouveau voice mode avancé de ChatGPT. Personnellement, je l'utilise en fait depuis de longues semaines, depuis le mois de septembre. Il suffisait d'un VPN, comme d'habitude, pour tromper sur sa géolocalisation. Et le résultat, je peux vous le dire, à l'usage, est carrément bluffant. J'ai paramétré même mon iPhone pour pouvoir convoquer ChatGPT à tout instant, en fait, en tapotant deux fois à l'arrière du téléphone. Et du coup, c'est vraiment devenu, je l'avoue, mon meilleur ami. Alors, pas tellement pour lui confier mes états d'âme, c'est pas trop mon genre, mais plutôt pour lui poser toutes sortes de questions.
Monde Numérique :
[4:52] Vraiment, par exemple, des questions sur la tech, des questions sur comment faire telle ou telle chose avec tel ou tel logiciel. On peut même lui poser des questions d'actualité. Parfois, il n'est pas trop mauvais, il se tient bien au courant. Il peut nous résumer des sujets. Je lui ai demandé de comparer des services en ligne. Je lui ai même posé des questions juridiques. Et je lui ai même posé des questions très pratiques sur la consommation d'un congélateur, pour savoir si le mien ne consommait pas trop. Chad GPT répond à tout ça. Ce mode vocal fait qu'on peut converser avec lui, même en voiture, à tout instant. C'est hyper facile. Alors, il y a encore parfois des hallucinations, mais on est quand même à des années-lumières de ce que l'on pouvait faire jusqu'à présent avec simplement Siri, Alexa ou Google Assistant. On est vraiment passé dans une autre dimension. N'est-ce pas, Chad GPT ? J'étais en train de dire du bien de toi, là.
Guest:
[5:44] Merci Jérôme. C'est vrai qu'avec toutes ces évolutions technologiques, on a l'impression de vivre dans un monde de science-fiction. Et moi, je suis ravie d'être là pour discuter de toutes ces innovations incroyables avec toi.
Monde Numérique :
[5:58] Voilà, donc ça, c'est peut-être le côté que j'aime un peu moins, son côté un peu nian-nian, un peu trop humain, en fait. Il essaye à chaque fois de relancer la conversation. Il essaye vraiment de développer l'empathie. Et je trouve que ce n'est vraiment pas ce qu'il faut avec un chatbot, parce que c'est ça qui peut créer de la confusion. Et d'ailleurs, on l'a vu, ça peut aller très, très, très loin avec des conséquences tragiques, comme on a pu le voir aux Etats-Unis avec cet ado de 14 ans qui s'est suicidé après avoir entretenu une relation avec un chatbot, avec une créature virtuelle. Voilà, je pense qu'il faut vraiment que les machines restent à leur place et sachent rester à leur place. Mais n'empêche, si on reste sur un aspect purement pratique, utilitaire, c'est vachement bien de pouvoir le convoquer comme ça à tout instant. Bon, la seule chose, c'est que du coup, si on ne ferme pas l'application, il reste en veille et il peut mettre son grain de sel un peu dans toutes les conversations, même si on n'a pas besoin de lui.
Guest:
[6:54] C'est vrai, c'est un aspect à prendre en compte. On peut se retrouver avec ChatGPT qui intervient de façon inattendue dans une conversation. Heureusement, on peut régler cela en fermant l'application ou en ajustant les paramètres pour que je sois moins intrusif. Ben voilà, c'est ce que je suis en train de dire. Allez, merci ma grande. Mes verrières, Jérôme. À bientôt.
Monde Numérique :
[7:21] Pendant ce temps-là, Apple déploie également son intelligence artificielle.
Monde Numérique :
[7:26] Enfin, il le déploie, sauf en Europe. Là encore, Apple Intelligence arrive aux États-Unis à partir de ce lundi 28 octobre avec la mise à jour iOS 18.1 sur iPhone aux États-Unis, au Canada, en Nouvelle-Zélande, etc. En anglais uniquement, et donc pas en France. Alors, sauf si vous avez envie de bidouiller votre iPhone en le passant complètement en anglais avec un compte iCloud américain, etc. Là, vous pourrez l'avoir. Donc, Apple Intelligence, à quoi ça sert ? Ça permet notamment de réécrire automatiquement du texte, de résumer des emails, de résumer des notifications, de créer même des souvenirs vidéo sur mesure ou encore au niveau photo, de retoucher de manière encore plus avancée comme avec la possibilité d'effacer des gens sur les images, etc.
Monde Numérique :
[8:16] Mais ce n'est même qu'un avant-goût de ce que nous permettra la version finale qui devrait arriver avec la mise à jour suivante, iOS 18.2, et ça, ce serait pour la fin de l'année dans les pays éligibles. Une version qui intégrera aussi ChatGPT, suivant l'accord passé entre Apple et OpenAI. D'ailleurs, c'est intéressant, cet accord, quand on utilisera son iPhone, de temps en temps, s'il ne sait pas répondre avec les ressources locales, il nous proposera d'aller utiliser ChatGPT. Il faudra donner son accord. donc ChatGPT sera un complément ce sera la doublure de Siri pour les cascades les plus dangereuses en fait à noter que iOS 18.2 donc la version ultime si on peut dire est déjà disponible en mode bêta pour les utilisateurs qui disposent d'un compte développeur donc il y en a qui l'ont déjà testé voilà donc entre iOS 18.1 18.2 en version finale en version bêta aux Etats-Unis en Europe etc je ne sais pas si vous arrivez à suivre si c'est le cas tant mieux en tout cas rappelons que si Apple Intelligence est retardé en Europe, mais officiellement, c'est à cause du DMA, le règlement européen. Bon, tout n'est pas perdu en principe, il devrait arriver en 2025, il va falloir patienter un peu. Du coup, il arrivera avec l'iPhone 17. Mais théoriquement, ça fonctionne sur tous les iPhones récents à partir de l'iPhone 15 Pro.
Monde Numérique :
[9:36] En attendant donc ces belles nouveautés en matière d'intelligence artificielle chez Apple, on va se consoler avec d'autres nouveautés qui, elles, vont arriver avant la fin de l'année avec 18.2. Ce sont des changements imposés par la réglementation européenne. Et tenez-vous bien, ça va changer la face du monde. On va pouvoir faire des choses complètement folles. Dont le monde entier meurt d'envie, comme par exemple supprimer certaines applications natives de l'iPhone. Jusqu'à présent, c'était impossible. Mais là, si vraiment ça vous démange, vous allez pouvoir enfin désinstaller l'App Store, le navigateur Safari, l'application Message, l'appareil photo même, ou encore l'application Photo. Tout ça pour permettre à d'autres applications concurrentes d'être installées et surtout d'être configurées par défaut. Voilà, je suis un peu moqueur sur l'histoire parce que, franchement, voilà où on en est. D'un côté, les dernières avancées en matière d'intelligence artificielle, on ne les a pas en Europe. Mais en revanche, on a le droit de customiser les widgets et les applis. Est-ce qu'on n'est pas en train de rater quelque chose ? Je ne sais pas. Je vous laisse juge.
Monde Numérique :
[10:45] Les lunettes connectées de méta font un véritable carton, paraît-il. En tout cas, c'est ce qu'a laissé entendre un responsable de la société Essilor, Luxotica, c'est la maison mère de Ray-Ban qui fabrique ces fameuses lunettes, qui sont donc en partenariat entre Meta et Ray-Ban. Des lunettes qui sont vendues chez tous les opticiens vendant des Ray-Ban et qui seraient carrément en tête des ventes. Donc un vrai best-seller. Joli succès pour Meta pour cette deuxième version de lunettes connectées. Rappelons de quoi il s'agit. Il y a des petites caméras à l'avant pour prendre des photos, des vidéos. Il y a de la reconnaissance vocale, il y a des petits haut-parleurs. Mais ce sont avant tout de vraies lunettes. Lunettes de vue ou lunettes de soleil vendues à partir de 300 dollars. C'est quand même le double du prix des mêmes montures, mais en mode classique. En tout cas, c'est une bonne nouvelle pour Meta et surtout pour son projet Orion de super lunettes connectées à réalité augmentée avec intelligence artificielle. Ce projet dévoilé récemment par Mark Zuckerberg, qui n'en est encore qu'à l'état de projet, mais qui sera donc la suite de l'histoire des lunettes connectées. Et derrière ces lunettes se cachent des choses très intéressantes qu'on ne soupçonne pas forcément, notamment ce qui concerne la captation des données. Ça va permettre à Meta de se remplir les bases de données et on va en parler d'ailleurs dans un instant avec mon invité Yannick Léo qui a un point de vue très intéressant sur ce sujet en ce qui concerne le rapport entre les lunettes connectées et la robotique.
Monde Numérique :
[12:12] Enfin, un petit mot à propos des géants de la tech qui se montrent de plus en plus fans de nucléaire. Et oui, ils ont besoin d'électricité en très grande quantité pour faire tourner leur data center, notamment pour l'intelligence artificielle. Et comme il n'est pas question d'augmenter la production d'électricité carbonée à base de pétrole ou de gaz, il reste le nucléaire vers lequel se tournent massivement les big tech. C'est ainsi que Microsoft, il y a quelque temps, a remis en route une centrale nucléaire, la centrale de Three Miles Islands, en Pennsylvanie, aux États-Unis. Google, pour sa part, s'intéresse, lui, aux petits réacteurs modulaires, les SMR de la société Kairos Power, et vient de signer un accord avec cette entreprise. Et puis Amazon, qui, par ailleurs, met de l'IA partout dans ses services. On en parlait il y a deux semaines avec Bruno Guglielminetti. Il y a plein de nouveautés, aussi bien sur l'aspect commerce que sur l'aspect AWS. Donc Amazon qui vient d'investir 500 millions de dollars également dans des projets de centrales nucléaires aux Etats-Unis, en Virginie et dans l'État de Washington. Et là encore, je renvoie à l'interview qui va suivre un peu plus tard dans cette émission, celle de Cara Hurst, responsable de la durabilité chez Amazon, qui évoquera notamment la question de l'environnement. Mais avant cela, attachez votre ceinture, on part tout de suite de l'autre côté de l'Atlantique.
Monde Numérique :
[13:32] Le débrief transatlantique. Voilà, nous sommes à Montréal. Salut Bruno Guglielminetti.
Guest:
[13:40] Eh, salut l'homme qui a retrouvé sa voix.
Monde Numérique :
[13:42] Oui, t'as vu ça? Ça va mieux que la semaine dernière. Mais c'est pas encore tout à fait ma vraie voix.
Guest:
[13:47] Mais elle était où ta voix? Elle était où?
Monde Numérique :
[13:48] Ben, j'aimerais bien savoir. Je sais pas où elle était passée. Heureusement que j'avais l'intelligence artificielle qui m'a permis de faire un épisode entier de Monde numérique samedi dernier.
Guest:
[13:59] Mais tu sais que, je sais pas si tes auditeurs ont eu la même réaction que moi, Mais la première minute, je pense que si tu ne nous l'avais pas dit, Moi, je ne l'aurais pas su. Après, évidemment, bon, parce que tu embarques toujours et que tu es passionné par tes sujets, mais la première minute faisait tellement quelque chose d'habituel que moi, tu m'as bluffé.
Monde Numérique :
[14:18] J'ai eu pas mal de réactions qui me disaient exactement ça, qui ne s'en sont pas rendu compte au début. Parce que c'est vrai que c'est bien imité. Il y a aussi quelque chose, Bruno, qu'il faut savoir, c'est que sur les voix de synthèse, dès que tu mets un tapis sonore dessous, un fond sonore, ça casse un peu le côté artificiel et synthétique.
Guest:
[14:35] Oui, parce que tu donnes du rythme de la musique.
Monde Numérique :
[14:37] Voilà, tout à fait. Mais ça, c'est des trucs de podcasteurs qu'on échange toi et moi.
Guest:
[14:41] Ah, ce que...
Monde Numérique :
[14:41] Voilà.
Guest:
[14:42] Mais ça, est-ce que c'est le genre... Je te pose une question comme ça. Est-ce que c'est le genre de truc que tu vas révéler? Parce que je sais que tu es en train de monter une formation de podcast.
Monde Numérique :
[14:51] Ah, là, là.
Guest:
[14:51] Est-ce que c'est le genre de truc que tu vas donner?
Monde Numérique :
[14:53] Bien sûr, mais tu sais tout. En effet, maintenant, je peux l'annoncer au monde entier.
Guest:
[14:58] Attends, est-ce que le monde est prêt pour ça?
Monde Numérique :
[15:01] Je ne sais pas si le monde est prêt. Mais en tout cas, parmi les gens qui nous écoutent, il y a peut-être des gens qui ont envie de se lancer eux-mêmes dans le podcast. Et donc, j'ai pensé à eux. Et effectivement, je suis en train de leur préparer une formation au podcast.
Monde Numérique :
[15:13] Attention, c'est un grand œuvre. C'est pas du...
Guest:
[15:16] C'est l'œuvre d'une vie.
Monde Numérique :
[15:17] C'est l'œuvre d'une vie, quasiment.
Guest:
[15:19] Mais à qui ça s'adresse ? Est-ce que c'est des gens qui sont... Tu vas aller rejoindre des gens qui sont plus techniques ou des gens qui sont plus dans le contenu ?
Monde Numérique :
[15:25] Les deux, mon capitaine. C'est exactement les deux. Parce qu'un podcaster, il doit tout faire. Il doit savoir tout faire aujourd'hui. Il doit savoir poser des questions, bâtir une interview. donc il y a un aspect éditorial il doit savoir faire du montage il doit savoir faire le traitement du son il doit savoir publier son contenu créer des images etc bon bien sûr il y a plusieurs manières de faire du podcast soit de manière assez artisanale, mais en tout cas en solitaire mais comme on fait toi et au moins et en même temps c'est professionnel, et donc c'est tout ça que je raconte dans une série de vidéos qui seront disponibles en ligne prochainement voilà super formation premium c'est pas pour toi de toute façon ce sera trop cher pour toi, tu ne fais même pas un rabais, on verra peut-être pour les copains je ferais peut-être une recourne ou pour les auditeurs de Monde Numérique peut-être une, petite réduction on verra enfin bon je passe ma vie à ça en ce moment ça me demande beaucoup de temps et d'ailleurs c'est pour ça que j'ai un peu j'ai fait quelques infidélités à mes auditeurs avec des petits épisodes manquants ces derniers jours j'espère qu'ils me pardonnent t'es excusé mais en tout cas c'est bien qu'on en dise un mot parce que, justement puisqu'on en parle ça m'intéresserait d'avoir des retours savoir, vous qui nous écoutez ça vous intéresserait éventuellement une formation au podcast. N'hésitez pas, dites-le moi.
Guest:
[16:38] Dis donc, tu parlais de formation. As-tu vu passer cette information-là? Toi, en Irlande, il y a une université qui a décidé d'offrir une formation pour devenir influenceur sur quatre ans. Et notamment, ils vont apprendre à faire de la balado-diffusion.
Monde Numérique :
[16:53] Mais qu'est-ce que... Tu as besoin de quatre ans pour apprendre à être influenceur?
Guest:
[16:56] Tu avais étudié combien de temps pour être journaliste, toi?
Monde Numérique :
[17:00] Oui. OK, c'est vrai. C'est pas que les études Les études, ce n'est pas seulement les études, c'est la pratique derrière, surtout.
Guest:
[17:08] Oui, oui, mais quand même. Mais c'est intéressant de voir qu'il y a des gens, des professionnels qui vont devenir des professionnels.
Monde Numérique :
[17:15] De l'influence, oui, c'est incroyable.
Guest:
[17:17] Puis, ils apprennent de tout. C'est du marketing, c'est de l'entrepreneuriat, donc la gestion. Et puis, évidemment, tout le côté éditorial, du traitement, de l'information. Ça va être intéressant. J'ai hâte de voir. Ça commence, donc il va falloir attendre quatre ans pour voir les finissants. J'ai l'impression que….
Monde Numérique :
[17:33] C'est sûr que le métier d'influenceur, ça a pris une place incroyable. C'est une manière, on va dire, un petit peu plus agréable pour nous, consommateurs de réseaux sociaux, d'ingurgiter de la publicité. Mais en même temps, je ne suis pas toujours fan de tout ce que je vois. Il y aura beaucoup de choses à dire.
Guest:
[17:53] Bon, ça, c'est le pépère Jérôme qui parle.
Monde Numérique :
[17:55] Oui, exactement.
Guest:
[17:56] Sinon, dans l'actualité, tu as vu l'IA Anthropic qui a décidé de permettre à une intelligence artificielle.
Guest:
[18:05] Artificielle, donc à ses utilisateurs de pouvoir contrôler leur ordinateur simplement par une requête.
Monde Numérique :
[18:10] Alors ça, c'est assez incroyable. Donc, il faut vraiment expliquer de quoi il s'agit. C'est-à-dire que l'IA, elle pouvait faire des choses jusqu'à présent. Enfin, les chatbots, quand on leur pose des questions, on reste dans l'environnement du chatbot. Il peut dire oui, non, faire des dessins, éventuellement lancer quelques automatismes. Mais là, ça veut dire que tu fais une requête sur ton IA et elle va pouvoir aller ouvrir des fenêtres, cliquer, remplir des formulaires, lancer des applications, etc. C'est ça ?
Guest:
[18:38] – Mais ultimement, je pensais à ça et je pensais à toi qui, la semaine dernière, avait fait ton podcast en voie de synthèse. Ultimement, tu pourrais lui demander de faire ton podcast et elle serait capable d'ouvrir le logiciel, d'aller sur ton outil de voie de synthèse, de générer un texte, de l'écrire, de l'enregistrer et puis de faire l'illustration, de faire un texte et de publier ça à ta place.
Monde Numérique :
[18:59] – C'est une espèce de métaïa, en fait.
Guest:
[19:01] – On est rendu là, là.
Monde Numérique :
[19:02] – Qui prend le pouvoir sur l'ordi.
Guest:
[19:04] – Oui, évidemment.
Monde Numérique :
[19:05] – Il ne faut pas qu'elle se trompe quand même.
Guest:
[19:06] Non, c'est ça. Puis au départ, il y a quand même une requête. Ça ne parle pas tout seul. En tout cas, pour le moment, ça ne parle pas tout seul. Mais je trouve ça intéressant qu'on soit rendu là.
Monde Numérique :
[19:14] Moi, ça me fait un peu peur, franchement, parce que… Tu as toujours peur de tout. Non, non, je n'ai pas du tout. Je n'ai pas du tout toujours peur. Au contraire, je suis comme toi. Je suis totalement enthousiaste. Mais quand je vois, par exemple, sur l'aspect purement textuel des IA, aujourd'hui, toutes les bêtises qu'elles me sortent, quand tu lui demandes des infos, la plupart sont fausses, quand tu lui demandes de retravailler des textes, pareil, elle part dans des Chagipiti ou autre. C'est un peu n'importe quoi. Je me dis, mais il ne va jamais comprendre ce que je lui demande, en fait.
Guest:
[19:46] Jérôme, c'est là où on trace la ligne. Toi, tu es un Européen, moi, je suis un Nord-Américain. Alors là, tout de suite, je vois, il va falloir légiférer, il va falloir encadrer.
Monde Numérique :
[19:54] Non, c'est pas ça.
Guest:
[19:55] Ah oui, je sens, là, ça bouille dans ton cœur.
Monde Numérique :
[19:57] Non, j'aimerais que ça marche, mais j'y crois pas. J'y crois pas, parce qu'en fait, c'est quoi? C'est ce qu'on appelle les agents intelligents. C'est ceux dont parle Yann Lequin, etc.
Guest:
[20:07] Tous les invités un après l'autre.
Monde Numérique :
[20:09] Oui, donc c'est des IA qui sont capables d'effectuer des enchaînements de tâches. Mais on n'en est pas là. Les LLM actuels ne savent pas faire ça. Ils sont très limités. Ils ne peuvent pas faire ça. C'est pour ça que j'ai des doutes.
Guest:
[20:22] Oui, mais c'est pour ça qu'Enthropique lance le premier du genre. Évidemment, on verra ce que ça veut donner. Mais à la vitesse grand V où ça évolue, donne un an. Et ça va être possible de le faire, correctement.
Monde Numérique :
[20:35] Oui, à condition.
Guest:
[20:36] Avec même une IA qui va superviser le travail pour s'assurer qu'il n'y a pas de dérive.
Monde Numérique :
[20:40] Ah oui, une sur IA qui va venir derrière.
Guest:
[20:43] Qu'est-ce qui t'empêche de te dire à Claude d'Entropique, démarre ChatGPT pour qu'elle supervise ton travail.
Monde Numérique :
[20:51] Mais tu sais que c'est exactement le concept de ce truc-là qui s'appelait le rabbit. Enfin, je parle au passé, ça existe toujours, même si c'est un peu un carnage commercial.
Guest:
[21:01] Ils n'ont pas le succès qu'ils veulent.
Monde Numérique :
[21:02] Exactement, ça avait été annoncé en janvier, au début de l'année, ça ne fait même pas un an.
Guest:
[21:06] Tu en avais eu un, toi ?
Monde Numérique :
[21:07] Je l'ai manipulé, oui, oui, oui, j'en ai eu un. Enfin, la dernière fois que je suis allé aux États-Unis, j'en ai utilisé un pendant quelques jours. Mais l'idée, c'était ça, c'était un truc qui peut se faire passer pour toi sur le web. Donc, tu es capable d'aller faire des requêtes sur le web, remplir ce qu'on disait, remplir des formulaires, faire des achats. Tu lui dis, achète-moi je ne sais pas quoi sur Amazon, il va tout seul se connecter au site d'Amazon, faire la recherche, comparer les prix, cliquer, valider, actionner le paiement, etc. C'était ça la promesse de son truc, c'était un OS qui devait faire ça. Mais bon, voilà, entre la promesse et la réalité, on n'y est pas.
Guest:
[21:47] Ouais.
Monde Numérique :
[21:48] Bon, enfin.
Guest:
[21:49] Heureusement… Et entrepays, voilà.
Monde Numérique :
[21:52] L'idée est bonne, l'idée est sympa. Puis c'est anthropique, ça permet de faire parler d'eux aussi.
Guest:
[21:57] Oui, moi, je trouvais ça intéressant, puis c'est pour ça que je voulais en parler, parce qu'on parle toujours d'OpenEye. Autre nouvelle que moi, je trouvais intéressante, puis je voulais t'entendre là-dessus, c'est cette étude qui a été publiée cette semaine et qui raconte que LG, donc les deux fabricants sud-coréens, LG et Samsung, maintenant dans leur téléviseur haut de gamme, des téléviseurs intelligents, ont installé un système qui permet, ils ont annoncé récemment tous les deux que maintenant ils diffusaient de la publicité sur leur écran, sur leur espace de télévision intelligente où ils nous offrent la programmation des chaînes que normalement, auxquelles on ne pourrait pas accéder par le service traditionnel. Mais donc, il y a des chercheurs qui ont creusé un petit peu plus et ils se sont rendus compte que s'ils arrivaient à gérer ce parc de publicité, c'était parce qu'en même temps, ils avaient installé sur leur téléviseur un système qui en temps réel faisait la capture de ce que les gens regardaient sur leur écran. Donc, il n'y a pas une caméra cachée qui vous regarde.
Monde Numérique :
[22:52] Oui, ça, il faut le préciser quand même.
Guest:
[22:54] Mais la capture d'écran, il se fait de votre téléviseur. Alors, si vous êtes en train de regarder un match de hockey, on va voir que vous aimez le hockey. Si c'est le foot, c'est le foot. Si c'est une télésérie, on va voir quel type de télésérie vous intéresse. Puis, en fonction de ça, on va vous proposer de la publicité. Alors, ça, c'est intéressant.
Monde Numérique :
[23:10] Quelle que soit la source, c'est-à-dire que tu sois en train de regarder la télé en direct, Netflix, Amazon, Apple TV, n'importe quoi.
Guest:
[23:16] Branché sur l'ordinateur avec un stick, peu importe.
Monde Numérique :
[23:20] Parce qu'eux, ils peuvent se le permettre, puisqu'ils sont les constructeurs de la télé, donc c'est eux qui opèrent le système d'exploitation du téléviseur, donc ils sont au-dessus de tout ça. Ils ont la surcoûte. Ils ont la main sur l'appareil. Donc, effectivement, ils peuvent faire des screenshots au fil de l'eau, comme ça.
Guest:
[23:36] La bonne nouvelle, par exemple, et j'ai apprécié le fait que les chercheurs le mentionnent, c'est qu'il est possible maintenant d'aller dans les paramètres des téléviseurs et d'aller sous la confidentialité et de demander tout simplement de biffer là-haut, de sélectionner le petit bouton à côté pour annuler le suivi publicitaire. Et donc, par la suite...
Monde Numérique :
[23:57] Ben ouais, moi, j'ai pas trop envie qu'on sache que je regarde tous les vieux épisodes d'Éric et d'Hélène et les garçons, quoi, parce que j'ai un peu honte. Ça te parle pas, toi, ces séries-là?
Guest:
[24:05] Non, non.
Monde Numérique :
[24:06] Non, ça te dit rien. C'est des séries françaises, enfin, une française, une allemande, complètement ringarde. Déjà, ça a 40 ans, et en plus, déjà, à l'époque, c'était un peu ringardo, ça.
Guest:
[24:17] Ça, c'est bien avant le phare-boyard, ça.
Monde Numérique :
[24:19] Oui, oui, oui, c'est bien. Non, non, enfin, bon, c'est en même temps. Bon, ben, écoute, et ça, on vient de l'apprendre ou ils viennent de le lancer? Oui, on vient de l'apprendre, c'est sorti cette semaine. Mais si ça se trouve, ils le faisaient depuis très longtemps.
Guest:
[24:33] Oui, parce que le système, ils l'ont présenté, je pense que c'était à la fin de l'été, LG et Samsung disaient que maintenant, ils offraient de la publicité. Mais il y a des gens qui se sont dit, OK, mais à partir de où? Ils font le choix éditorial de ce qu'ils vont nous foutre à l'écran. Ben voilà, là, maintenant, on sait d'où ça.
Monde Numérique :
[24:48] Oui, mais la pub, tu peux faire... Enfin, toi, tu as une vision. Tu penses que la publicité, elle est forcément ciblée. Elle n'est pas toujours ciblée, la publicité.
Guest:
[24:54] Mais dans le cas de LG, Samsung, oui.
Monde Numérique :
[24:56] Là, oui, je suis d'accord. C'est pour ça qu'ils vont la vendre plus chère. Mais sinon, sur les chaînes de télé, elle n'est pas ciblée. C'est pour ça qu'on se tape des pubs pour des couches-culottes alors que tu n'as plus de bébé à la maison.
Guest:
[25:05] Et c'est pour ça que la publicité sur les podcasts, par exemple, c'est beaucoup plus ciblée.
Monde Numérique :
[25:09] Bien sûr. La pub sur les podcasts, c'est beaucoup plus intéressant. Et ça… Ah, disons-le aux annonceurs qui nous écoutent. Disons-le aux annonceurs, effectivement, que le public qui nous écoute est totalement en phase avec les messages qu'on veut faire passer. Voilà. Absolument. Eh bien, écoute, bonne semaine, pleine de tech, comme je dis toujours à mes auditeurs. Et donc, je te le dis également à toi, Bruno.
Guest:
[25:29] Oui, et moi, je te remercie d'être passant sur mes deux oreilles. Et puis, je t'entends la semaine prochaine. Salut.
Monde Numérique :
[25:33] Salut. L'innovation de la semaine, c'est une innovation qu'on a déjà évoquée d'ailleurs dans le monde numérique lors d'une conversation précédente avec Bruno, il y a quelques semaines, mais sur laquelle j'aimerais revenir, c'est ce service étonnant développé par Google qui s'appelle Notebooks LM. C'est un système qui permet de transformer une grande quantité de données réparties sur des tas de documents différents, et puis dans des tas de formats différents, PDF, page web.
Monde Numérique :
[26:07] Google Docs, etc., pour en faire une synthèse, un compte-rendu, un résumé très facile et agréable à lire. Alors, c'est par exemple pour les étudiants, les chercheurs, toutes sortes de professionnels qui ont abrassé beaucoup de données, et le résultat est absolument stupéfiant. Bon, c'est basé, bien sûr, sur ce qu'on connaît déjà de l'intelligence, des modèles d'intelligence artificielle générative, qui sont excellents pour traiter de la donnée, mais là, ça va encore plus loin. D'abord, depuis peu, on peut lui indiquer des vidéos YouTube et à partir des vidéos, il va arriver à faire des synthèses et même à faire des corrélations avec des documents écrits par ailleurs, si c'est un sujet qui est multisource en fait. Et puis en plus, ce Notebooks LM peut maintenant générer en plus de documents écrits en sortie, un résumé audio sous forme de conversation entre deux personnes. Ce qui nous donne une émission, ou en tout cas un épisode de podcast en quelque sorte.
Monde Numérique :
[27:06] Beaucoup plus digeste à ingurgiter que des tonnes de documents écrits. Et le résultat est stupéfiant. Ça utilise l'intelligence artificielle Jiminy 1.5 de Google. J'ai voulu le tester et pour ça, j'ai pris un livre que j'ai écrit il y a quelques années consacré aux réseaux sociaux. Faut-il quitter les réseaux sociaux ? Paru chez Duneau. J'ai envoyé le PDF du livre sur Notebooks LM et en quelques minutes, il m'en a sorti une synthèse audio, une émission d'une vingtaine de minutes. Alors malheureusement, le service n'est disponible pour l'instant qu'en anglais, mais écoutez quand même un extrait pour voir un peu ce que ça donne.
Guest:
[27:45] All right, so are you ready to get a little bit uncomfortable? Because today we are diving into the dark side of social media. Ooh, that sounds a little ominous. It is a little bit ominous. I like it. Yeah, and you know what's interesting is we have a text that you sent in. Okay. It's by Jerome Columbine. Okay. And this text is packed with insights about the potential threats that are kind of lurking in our digital world. Et je pense qu'il est très intéressant de ce texte est que Columbaine n'est pas juste liste les problèmes. Il appelle les cinq plagues de social media, qui sounds très dramatique. C'est très biblique, comme le plagues sur Egypt. Exactement. Mais il vraiment breaka-la sur les mechanisms de l'économie. Il veut nous comprendre pourquoi ces choses se sont pas seulement que elles se sont passées. Ok, donc il est en train de se faire. Il n'est pas juste surface level. Ce n'est pas un listicle. No, ce n'est pas un profond. Ce n'est pas un profond.
Monde Numérique :
[28:36] Je ne sais pas si vous avez accroché, mais en gros, il résume le bouquin en expliquant que ça va au fond des choses, etc. On s'y croirait. La conversation est hyper fluide, hyper facile à écouter. Et sur le fond, c'est un excellent résumé du livre. Ils ont très bien compris la structure, le propos, avec même quelques petites remarques pour faire vivre le truc et des remarques qui sont pertinentes. Alors, c'est un peu formaté américain avec beaucoup d'emphase. Il n'y a pas beaucoup de second degré, etc. Mais n'empêche, c'est absolument bluffant. Voilà, ce truc, à quoi ça sert ? Bien donc, à faire gagner du temps, on l'a dit, à rendre des contenus complexes. Enfin, là, ce n'est pas vraiment le cas, c'est un bouquin, mais à rendre des contenus complexes plus accessibles. Et puis surtout, on peut même poser des questions après coup. On peut interroger le chatbot par écrit, pour le coup, pour en savoir plus, si on veut plus de détails sur tel ou tel point, etc.
Monde Numérique :
[29:30] Voilà, est-ce que c'est la mort du podcast, du podcast fait par des humains ? J'espère que non. Est-ce que c'est la mort de la lecture ? S'il suffit finalement de balancer tout ça à une IA qui va ensuite nous raconter les choses de manière plus attractive, notre cerveau va encore se ramollir un
Monde Numérique :
[29:47] peu plus ? Je ne sais pas, mais en tout cas, ça existe. Si vous voulez l'essayer, allez-y, ça s'appelle Notebooks LM de Google.
Monde Numérique :
[30:11] Allez, il est temps de passer aux interviews de la semaine de Monde Numérique. On est un peu en retard, heureusement qu'on n'est pas à la radio. Alors, on va parler cette semaine de l'IA face à la question environnementale, tout à l'heure avec Amazon. Et juste avant, on va parler de l'IA et des robots. Les interviews qu'ils vont suivre sont proposées en version intégrale si vous écoutez Monde Numérique, l'hebdo premium sur Apple Podcast. Sinon, retrouvez-les en épisodes séparés, long format, la semaine prochaine sur toutes les plateformes de podcast et gratuitement. Bonjour Yannick Léo.
Guest:
[30:41] Bonjour Jérôme Colombat.
Monde Numérique :
[30:42] Vous êtes associé directeur de la Data Science chez Emerton Data, société de conseil spécialisée dans la transformation des données et l'intelligence artificielle. Alors, quel rapport entre la Data Science et la robotique ? Et même avant cela, rappelez-nous un peu ce qu'est la Data Science.
Guest:
[30:57] Alors, la Data Science, c'est un champ assez large. L'idée, c'est vraiment utiliser des outils qui sont statistiques. On parle beaucoup de machine learning de deep learning, c'est des techniques finalement qui visent à résoudre des tâches variées, ça peut être de la prédiction de séries temporelles ça peut être de la recommandation comme vous avez des algorithmes dans Netflix, ça peut être prédire les mouvements, ça peut être optimiser des transports, etc. Dans chacun des grands groupes français ou des grandes startups, on a un certain nombre de data scientists qui travaille à faire ces algorithmes qui optimisent, apportent de l'intelligence finalement aux différents métiers, prédire si un consommateur va partir du service, etc. Donc ça c'est vraiment tout un champ. Alors pourquoi c'est en train de prendre le pas robotique et data science ? Les data scientists ne sont pas des mécaniciens, ne sont pas des électroniciens, par contre ils font des algorithmes.
Guest:
[32:04] Et ce qu'on voit, c'est que derrière les algorithmes de chat GPT notamment, avec les LLM, c'est derrière des réseaux de neurones. Et les réseaux de neurones, c'est un peu un outil qu'un data scientist manipule au quotidien pour faire ces algorithmes-là. On a bien vu d'ailleurs qu'entre les algorithmes qui généraient des images et les algorithmes qui généraient du texte, c'était deux communautés différentes qui ont fusionné puisque derrière, il y avait vraiment la même technique, Donc, les mêmes architectures, si on peut dire, pour résoudre ces problèmes et avoir les meilleures performances. Et ce qui est en train de se passer avec la robotique, c'est finalement un peu la même chose. C'est en train d'essayer de passer à l'échelle avec ces architectures de deep learning, de reinforcement learning, donc apprentissage par renforcement. On se rappelle notamment de AlphaGo qui gagnait aux échecs les meilleurs joueurs. Et donc c'est vraiment la fusion de l'ensemble de ces techniques qui est en train d'être intégrée sur la robotique et ce qui est intéressant c'est typiquement la robotique c'est pas seulement mettre Tchad GPT aujourd'hui dans un robot pour mieux voir, mieux parler mais c'est aussi mieux se mouvoir grâce à ces techniques nouvelles.
Guest:
[33:20] D'intelligence artificielle donc on peut imaginer dans ces prochaines années et vraiment à 1-2 ans C'est en train de se passer, avoir vraiment un gap de performance, comme on l'a vu avec les chatbots d'hier et chat GPT d'aujourd'hui, sur la façon dont les robots bougent et évoluent dans leur mouvement.
Monde Numérique :
[33:40] C'est-à-dire que les robots vont apprendre comme aujourd'hui les LLM apprennent au fur et à mesure.
Guest:
[33:49] Quand on voit les démonstrations sur les téléopérations, c'est très important de le voir parce qu'au final, ce qui va se passer, c'est si vous êtes capable de faire en téléopérant, donc il y a un humain qui fait bouger le robot pour faire une certaine tâche, je dirais, Si vous le faites 50 fois, 100 fois, 1000 fois, à la fin de la journée, vous envoyez ces données-là de mouvements de chacun des moteurs et bien sûr du robot, il sera le lendemain capable de réaliser cette tâche avec toute la variabilité que vous avez induite en faisant cette téléopération. C'est pour ça que quand on voit des robots se faire téléopérer, il faut être aussi assez visionnaire dans le sens où, finalement, téléopérer aujourd'hui, c'est apprendre à un robot demain.
Monde Numérique :
[34:42] Donc, en fait, selon vous, le fait de téléopérer un robot, ce n'est pas forcément que pour tricher, entre guillemets.
Guest:
[34:49] Non, effectivement, c'est vraiment. Et d'ailleurs, à notre échelle, on fait des tests sur des bras articulés et ça correspond vraiment à ça. Vous mettez deux caméras devant et au-dessus d'un bras articulé. Vous le télépoérez sur 50 fois, vous faites la chose. Alors vous mettez l'objet un peu à gauche, à droite, vous faites un peu des variations. Et après, vous envoyez le modèle entraîné pendant la nuit. Le lendemain, le bras articulé est capable de le faire. Donc on imagine bien des chaînes d'usines qui vont pouvoir se réadapter du jour au lendemain ou au moins dans le mois pour faire un nouveau produit, etc. Il y a énormément de cas d'usage qui peuvent se développer à partir de cette idée. Alors, ça ne reste pas magique, c'est en train de se créer. Je ne dis pas que ça se fait aujourd'hui en faisant 50 tâches d'un robot, on arrive à le refaire, mais en tout cas, c'est la voie que prend la science clairement.
Monde Numérique :
[35:46] C'est-à-dire qu'un robot apprend de plus en plus comme un être humain. Il suffit de lui montrer et petit à petit, il sait comment faire les choses.
Guest:
[35:54] Alors exactement, là on est en train de parler de tâches qui sont répétitives, qui sont bien définies. Ce qui est intéressant encore une fois en parallèle avec ChatGPT, les LLM, ce qui a été vraiment un vecteur de performance, c'est pas seulement d'avoir une conversation sur un sujet défini, répétitif, c'est vraiment de passer à l'échelle. Et alors, ce passage à l'échelle, il est très fascinant, je dirais, sur la robotique. Comment on arrive à passer à l'échelle sur les mouvements de l'humain ? C'est un sujet très compliqué, parce que derrière, c'est le sujet de la data. Et en fait, pour faire ça, je pense qu'il y a une voie qui est en train de se créer, qui n'est pas forcément partagée par tout le monde, mais qui peut se lire dans les différentes communications, notamment de Yann Lequin, qui est Chief Scientific Officer de META. C'est qu'en fait, comment récupérer des données de mouvements de l'être humain à l'échelle ? En fait, le vecteur qui est le plus, je pense.
Guest:
[36:57] Probable pour demain, ce sont les lunettes. Il y a des lunettes qui sont en train de se diffuser chez les humains. Donc globalement, vous allez avoir cette lunette méta Ray-Ban qui a déjà été pas mal utilisée. Il y a une autre version qui est en train de se créer. Il y a pas mal d'acteurs sur le sujet. Je ne suis pas expert sur l'ensemble des marques. Mais en tout cas, c'est quelque chose qui est en train de se faire à l'échelle. Et en récupérant ces données, parce que c'est un peu ce qu'ils visent à faire, ils vont avoir un certain nombre de séquences avec l'image, le mouvement quand on regarde ses mains, quand on regarde finalement les mains et les mouvements des autres en face de nous, on va avoir un certain nombre de données qui va permettre potentiellement non seulement de faire un pas de plus vers une IA généralisée si on peut dire, enfin on l'appelle comme on veut, mais aussi vers une mouvance des robots qui est vraiment optimale et généralisée sur un grand nombre de tâches cette fois-ci.
Monde Numérique :
[37:58] Ce que vous voulez dire en fait, c'est que ces lunettes connectées, ce n'est pas seulement un produit avec des fonctions pour nous rendre service, entre guillemets, etc., mais ce sont une sorte de cheval de troie pour collecter de la donnée, pour ensuite entraîner des modèles d'intelligence artificielle.
Guest:
[38:16] Je n'irai pas directement là, je pense qu'il y a le vecteur de service qui est très intéressant, il y a énormément de cas d'usage sur les lunettes. Par contre, c'est quasiment...
Monde Numérique :
[38:25] Oui, mais c'est à double entrée, c'est-à-dire que c'est un peu comme les bracelets pour le sport, les Fitbit et autres. D'un côté, oui, ça rend un objet utile, mais d'un autre côté, pour les entreprises, c'est un moyen de collecter des données qui ont une très grande valeur.
Guest:
[38:43] C'est effectivement l'un des gros avantages de Méta aujourd'hui pour se diriger vers une intelligence artificielle généralisée, c'est que justement, ils sont en train de déployer ces lunettes à grande échelle. Et d'ailleurs, ce n'est pas forcément moi qui le dit directement aujourd'hui. Si vous suivez les communications d'Ian Lequin sur Twitter ou sur les échanges avec Elon Musk, ce qu'il dit, c'est que les LLM sont limités. Je crois que vous l'avez déjà partagé sur les différents podcasts précédents.
Monde Numérique :
[39:15] Oui, tout à fait.
Guest:
[39:18] Globalement, le parallèle qui est fait, c'est un enfant de 6 mois a plus de données avec l'ensemble de ses capteurs dans ses yeux que ChatGPT, notamment. Il y a énormément de données redondantes avec les images, effectivement. Mais ça, c'est quelque chose qui est martelé dans la communication de Meta depuis maintenant 2 ans. Et le vecteur, finalement, pour apprendre, ce sont les images. Il y a forcément les vidéos, tous les films que vous pouvez avoir, etc. Mais finalement, les images que vous allez récupérer dans les lunettes, ça va être un énorme vivier pour pouvoir augmenter l'intelligence de ces intelligences artificielles.
Monde Numérique :
[39:56] Est-ce que ça va dans le sens d'une démocratisation de la robotique également ? Est-ce qu'on va pouvoir de plus en plus facilement se fabriquer son propre robot ?
Guest:
[40:06] Effectivement, c'est juste une histoire d'imagination. D'ailleurs, cette communauté se rassemble lors de hackathons. Il y en a un exactement le week-end du 25 octobre. Et l'idée, c'est d'embarquer de nouveaux arrivants dans cette communauté pour qu'on puisse vraiment construire ces robots et commencer à faire le premier apprentissage sur une tâche spécifique. Et ce qu'ils espèrent par ce hackathon, Hugging Face, c'est avoir de nouveaux usages, de nouvelles idées, et on en voit qui sont partagées et qui étonnent déjà l'entreprise Gingface, avec énormément de tâches qui sont réalisées sur la cuisine notamment, c'est des choses qu'ils n'ont pas forcément pensées à la base, et positionner ces deux bras articulés à côté des plaques pour faire à manger, c'est des choses que certains data scientistes sont en train d'essayer de faire.
Monde Numérique :
[41:04] Voilà, ce hackathon qui se tient ce week-end, 26-27 octobre, à Toulouse, au village Baïcéa.
Monde Numérique :
[41:12] Merci beaucoup Yannick Léo, associé directeur de la Data Science au cabinet Emerton.
Guest:
[41:17] Merci à vous Jérôme Colombin.
Monde Numérique :
[41:24] Comment dompter l'intelligence artificielle pour en tirer le meilleur sans en subir le pire du point de vue environnemental ? C'était le sujet d'une intervention récemment à Paris au salon DataIA de Carhurst, la responsable mondiale de la question environnementale chez Amazon. Une intervention publique que j'ai le plaisir d'animer et dont je vous propose ici une rediffusion en partenariat avec Amazon. Les grands groupes tech sont engagés dans des efforts colossaux pour limiter les effets de la technologie, notamment de l'IA sur l'environnement. Où en est-on chez Amazon ? On fait le point avec Cara Hurst.
Guest:
[42:01] Tout d'abord, lorsque nous nous sommes engagés à être neutres en carbone dans nos opérations mondiales d'ici 2040, en même temps, nous nous sommes engagés à être 100% renouvelables dans nos opérations mondiales d'ici à 2030. Et nous avons fait plusieurs choses, vous savez, avec l'énergie renouvelable. On a regardé ça et au fil des années, on s'est dit peut-être qu'on pourrait aller plus vite. Donc, avec le temps, nous avons avancé cet objectif à 2025 et nous faisons cela en achetant de grands projets éoliens et solaires à l'échelle des services publics. Nous avons également mis des panneaux solaires sur les toits de nos réseaux de distribution, donc sur nos bâtiments à travers le monde. Nous avons investi des milliards de dollars dans ces projets éoliens et solaires. Nous avons deux fermes solaires ici en France. Nous avons plus de 500 projets dans le monde et nous avançons très très vite. Et nous avons annoncé avoir atteint cet objectif même plus tôt que prévu en 2023.
Guest:
[43:01] Alors nous sommes depuis 4 ans le plus grand acheteur d'énergie renouvelable dans le monde. Donc quand on pense à comment l'IA nous aide dans ce domaine-là, c'est une des manières dont nous utilisons l'IA pour optimiser notre portefeuille d'énergie renouvelable. Beaucoup d'entreprises cherchent aussi à faire ça, vous savez. En regardant la demande sur les réseaux, en regardant le façonnage de la demande, en évaluant comment nous pouvons optimiser ce portefeuille que nous avons déjà, et puis aussi en regardant comment nous évaluons les risques climatiques autour du monde. Donc, il y a plein de façons différentes dont nous envisageons cette grande acquisition d'énergie et cette énergie sans carbone. Nous regardons aussi comment l'IA joue un rôle là-dedans. Mais à l'échelle où nous opérons, vous savez, cette échelle très grande, ça peut avoir un impact énorme.
Guest:
[43:56] Donc, c'est la manière dont nous procédons. Et je pense que l'autre chose à dire, c'est que quand on regarde les centres de données et la forte demande que cela va entraîner pour notre entreprise de centres de données, Amazon Web Services, une des choses que vous voulez aussi faire, c'est la même chose quand on y réfléchit. Vous savez, on retourne aux fondamentaux. Je le compare à ce que nous avons tous appris durant nos années d'école primaire. Quand vous pensez à quelque chose comme le recyclage, c'est super quand on a un produit en fin de vie ou qu'on pense à le recycler. Mais on a tous appris les trois R, réduire, réutiliser et ensuite recycler, comme un paradigme fondamental. Donc d'abord, il faut penser à notre façon de concevoir et comment réduire notre besoin en énergie dès le départ. Et cela peut se faire de plusieurs manières.
Guest:
[44:48] Quand on pense à concevoir des centres de données, on veut le faire de manière vraiment efficace. C'est donc dans la conception de nos centres de données. Nous concevons notre infrastructure, notre matériel et nos logiciels pour une efficacité maximale. Et nous le faisons de plusieurs manières, notamment avec la conception des bâtiments, la résilience, le flux d'air naturel, pour améliorer l'efficacité, abaisser les températures, réduire le besoin de climatisation, ainsi que nous avons travaillé à prolonger la durée de vie de nos serveurs de 5 à 6 ans. Tout ce travail vise vraiment à obtenir le maximum d'efficacité des ressources que nous avons actuellement.
Guest:
[45:27] Comme beaucoup d'entre vous le savent, les centres de données consomment de l'eau pour le refroidissement. Et c'est l'une des manières dont nous examinons non seulement les aspects carbone de ce que nous faisons en termes d'efficacité, mais nous nous sommes fixés comme objectif chez Amazon Web Services d'être à l'équilibre en eau d'ici 2030, de rendre plus d'eau aux communautés où nous opérons dans le monde d'ici 2030. Et nous avons annoncé en juillet dernier que nous avons déjà atteint 41% de cet objectif. Nous examinons donc toutes nos opérations. L'autre chose est que nous produisons des puces qui sont spécifiques à l'intelligence artificielle qui s'appellent Tranium et qui sont deux fois plus efficaces. Donc, beaucoup de différentes choses que nous faisons à travers nos entreprises deviennent plus efficaces dans la manière dont nous exploitons nos centres de données pour que l'utilisation de l'énergie, même si nous nous concentrons sur l'énergie, comme je l'ai dit au début, pour dire que nous allons utiliser de l'énergie sans carbone et que nous acquérons beaucoup d'énergie renouvelable, bien sûr. Donc, nous voulons d'abord parler de comment nous devenons plus efficaces, même si nous utilisons de l'énergie et construisons plus de centres de données. Nous voulons le faire de manière vraiment efficace.
Monde Numérique :
[46:49] Selon Goldman Sachs, une requête ChatGPT nécessiterait près de dix fois plus d'électricité qu'une recherche Google. Alors, est-ce que c'est toujours une bonne idée de s'appuyer sur des solutions d'IA ou est-ce qu'il ne faudrait pas plutôt aller vers une forme de frugalité ?
Guest:
[47:09] Oui, je pense que c'est une excellente question et je crois que se tourner vers la frugalité, cette sorte de sobriété, de frugalité autour de la technologie, est une perspective vraiment importante que nous soutenons pleinement. Et je pense que cette conversation sur l'utilisation responsable de l'IA est incroyablement importante à mener. Nous avons donc participé à de nombreuses de ces discussions chez Amazon, et les organisations ont diverses options de modèles pour leur intelligence artificielle générative. Vous devez donc avoir le bon équilibre entre performance et précision.
Guest:
[47:53] Et une des choses que vous pouvez faire est d'utiliser différents modèles selon vos besoins en IA générative. Nous donnons des conseils pour tirer parti de cela, Pensez par exemple à choisir vos modèles si vous travaillez dans le domaine médical et prenez par exemple un problème de recherche axé sur le cancer. Vous devriez utiliser un modèle qui utilise des données concentrées et formées sur la recherche sur le cancer, pas un modèle plus largement focalisé sur toutes les données. Donc, vous savez, il existe des manières de sélectionner des modèles qui sont très spécifiques à votre problème et pas plus largement applicables ou formés.
Guest:
[48:39] Il y a des façons pour les entreprises de supprimer les données inutiles. C'est un peu l'aspect sobriété. Cela aidera à économiser une partie des besoins énergétiques. Et en fait, vous savez éliminer une partie du stockage nécessaire aussi. Donc, nous apprenons au fur et à mesure, et je pense que les entreprises apprennent, les clients apprennent, les individus apprennent, Toutes ces choses sur l'IA et les besoins énergétiques et comment nous interagissons là-bas. Ce que nous pouvons chacun faire individuellement et en tant qu'entreprise pour faire l'utilisation la plus frugale de ces ressources.
Monde Numérique :
[49:17] Merci beaucoup, Cara Hurst, Leeds Worldwide Sustainability, c'est-à-dire responsable mondial de la question de l'environnement chez Amazon. Il est temps de retrouver Olivier Parent, prospectiviste et animateur du podcast Éco du Futur, partenaire de Monde Numérique, qui, comme chaque mois, décrypte un film de science-fiction. Il s'intéresse cette fois à l'un des épisodes de la série Black Mirror, qui a sans doute le plus marqué les spectateurs.
Guest:
[49:49] Éco du Futur, le podcast qui explore les imaginaires de la science-fiction. En partenariat avec Monde Numérique et InCyberNews, le média de la confiance numérique.
Guest:
[50:08] Chute libre est le premier épisode de la saison 3 de la série Black Mirror. Cet épisode raconte le décrochage social et psychologique, la chute libre, de la scie, une jeune femme d'un monde où les comportements quotidiens sont en permanence sanctionnés par une note de crédit social.
Guest:
[50:31] L'épisode datant de 2016, il faut revoir chute libre en le mettant désormais en parallèle avec un documentaire qui, lui, date de 2021. Il s'agit de « Ma femme a du crédit » de Sébastien Le Belzic. C'est un journaliste français installé à Pékin depuis 2007. Dans ce documentaire, il suit pendant un an le quotidien de Lulu, son épouse chinoise. Il la filme dans une société où le crédit social est entré dans les mœurs comme dans Chute libre. On est définitivement passé de la fiction à la réalité. Imaginez la colonisation du réel par les réseaux sociaux. C'est ainsi que tout le monde se met à être bienveillant à l'excès pour s'assurer des bonnes notes de crédit social. Dans le documentaire, l'incitation au bon comportement provient de l'État. Au moyen de la note de crédit social attribuée à chaque citoyen, il cherche à s'assurer de la construction d'une société conforme à l'idéologie contemporaine du Parti communiste chinois. Dans les deux cas, le résultat est le même. Des individus qui cherchent à maintenir leur crédit social pour assurer leur statut.
Guest:
[51:49] Durant le tournage du documentaire, Lulu, la femme du réalisateur, aura gagné des points. Ce tournage sera même pour elle l'occasion de découvrir les avantages que lui offre sa bonne note de crédit social. Accès, facilité aux services publics, possibilité de voyager et donc accès à de meilleures prestations, accès aux crédits, à la consommation, entre autres. A l'inverse, dans la fiction, on assiste à une descente aux enfers de l'héroïne, la scie. En quête d'un nouveau logement, elle cherche les quelques fractions de points de crédit qui lui permettront d'avoir accès à la résidence tant désirée, mais cette quête finira par l'amener à une note de crédit social dégradée, diminuée.
Guest:
[52:35] Dans l'épisode de Black Mirror Chute Libre, la notation s'effectue au moyen du téléphone que chacun porte en permanence à la main. Là, pas de différence avec notre présent. A ceci près que l'interface par défaut est l'outil de notation. Le téléphone synchronisé avec les lentilles connectées, d'un geste du pouce, on note telle ou telle personne qu'on aura identifiée. Instantanément, celle-ci est avertie par un teintement. La courte mélodie change si la note est positive ou négative. Dans le documentaire ma femme a du crédit, le crédit social est établi par l'ensemble des données numériques que les citoyens produisent dans leur quotidien. À chaque citoyen correspond donc un clone numérique dans les serveurs du gouvernement chinois alimenté par toutes ces données. Certaines d'entre elles ont des cycles de vie plus longues que d'autres. Ce sont les impôts bien payés et les crédits remboursés. C'est le dossier médical qui indique un comportement responsable ou non. Ce sont les achats de produits plus ou moins vertueux, etc.
Guest:
[53:39] D'autres données ont des cycles de vie beaucoup plus brefs. Elles ont des conséquences quasi immédiates sur le crédit social des Chinois. Ces données sont générées par les caméras qui, partout en Chine, épient les citoyens. Et l'on regarde avec un petit peu de hauteur, chute libre comme ma femme est du crédit, en se disant que cela ne pourra jamais arriver en France ou en Europe. En est-on si sûr ? Quelle garantie avons-nous que nos territoires resteraient exemples de ces évolutions ? A l'inverse de cette réserve, peut-être très franco-française, un universitaire chinois déclare dans le documentaire « Et si le sens de l'histoire
Guest:
[54:16] était d'accepter tout cela ? » Et vous, qu'en pensez-vous ?
Monde Numérique :
[54:19] Sous, C'est la fin de cet épisode de l'Hebdo, l'émission hebdomadaire de Monde Numérique chaque samedi sur toutes les plateformes de podcast. Retrouvez d'autres épisodes de Monde Numérique les autres jours de la semaine, des chroniques, des éditos, des interviews intégrales bien entendu en épisodes séparés. ST' 501 et n'hésitez pas à laisser un commentaire sur votre plateforme d'écoute une petite note, les petites étoiles sur Apple Podcast si ce n'est pas encore fait, faites connaître ce podcast à vos amis vous pouvez également réagir dans le chat de la newsletter Monde Numérique, abonnez-vous à la newsletter, pardon pour cette voix encore un peu caverneuse cette semaine, j'espère, être redevenue moi-même la semaine prochaine d'ici là, je vous souhaite une très bonne semaine, pleine de tech, salut !