Monde Numérique :
[
0:11] Un robot qui réalise une opération chirurgicale tout seul grâce à l'intelligence
Monde Numérique :
[
0:15] artificielle, c'est une première mondiale. Un énorme réseau de cybercriminels prorusses démantelés. L'interdiction des sites porno aux mineurs et un système pour contrôler l'âge des utilisateurs. Des nouveautés dans la transcription vocale par intelligence artificielle. Et peut-être un iPhone pliant bientôt. L'ActuTech ne prend pas de vacances. Et Monde Numérique est sur le pont pour vous raconter et vous faire vivre le meilleur de la tech.
Monde Numérique :
[
0:46] Vous avez bien fait de cliquer, plein de bonnes choses dans cet épisode de l'hebdo version été. Dans la séquence interview, on reviendra sur cette étrange caméra que vous avez peut-être aperçue lors du défilé du 14 juillet, juste derrière l'épaule d'Emmanuel Macron. Qu'est-ce que c'est que ça ? Vous allez tout savoir en écoutant l'interview du fondateur de la société française Immersive Flashback à l'origine de cette initiative insolite. Il le dit et il le répète, Luc Julia, co-inventeur de Siri, pense que les IA génératives actuelles sont déjà dépassées. Il le disait dans Monde Numérique en février dernier, à l'occasion de l'été, je vous propose une rediffusion de cet entretien. Rediffusion également de l'interview étonnante de Bruno Maisonnier, inventeur de robots qui pense que l'on peut créer une intelligence artificielle organique sur le modèle du cerveau humain. Bienvenue à l'écoute de Monde numérique, l'hebdo du 19 juillet 2025.
Invité :
[
1:50] Monde numérique, Jérôme Colombin.
Monde Numérique :
[
1:58] Ravi de vous retrouver pour ce nouvel épisode de Monde Numérique, l'hebdo. Que vous soyez au soleil, à la plage ou à la montagne ou à la campagne ou encore tout simplement dans les transports en allant joyeusement au boulot. Monde Numérique et l'hebdo, c'est chaque samedi 50 minutes de news, de talk, d'interviews consacrés aux meilleurs de la tech. Alors, version était un peu allégée malgré tout, je vous l'ai dit. Donc cette semaine, pas de débrief transatlantique. Mon camarade Bruno Guilherme Nettier à Montréal a pris un peu de vacances, des vraies vacances. Moi je poursuis mes faux congés donc je suis là pour vous proposer cet épisode seule différence, pas de version longue premium de l'hebdo pendant l'été donc une seule version avec les interviews, en version courte une dizaine de minutes chacune puis les versions intégrales la semaine prochaine voilà j'espère que vous arrivez à suivre, en tout cas il suffit d'être abonné au podcast Monde Numérique et vous découvrez tout ça sur votre appli de podcast n'oubliez pas d'évaluer ce podcast sur les plateformes qu'ils permettent, notamment Apple Podcast en mettant 5 petites étoiles afin de contribuer à sa visibilité. Je vous en remercie par avance.
Monde Numérique :
[
3:02] Et on va donc commencer par une belle histoire, puisque nous sommes en été, il nous faut quelque chose de léger qui donne la pêche. Eh bien, c'est peut-être cette première aux États-Unis, une première mondiale, une opération chirurgicale réalisée en quasi totale autonomie par un robot. C'est une initiative de chercheur de l'université John Hopkins qui ont fait opérer, alors non pas un humain, mais un cochon mort pour voir si un robot pouvait comprendre des commandes vocales et puis agir seul et même s'auto-corriger afin de réaliser l'intervention. Ça a marché et on peut dire que c'est sans doute un pas de géant pour la médecine et pour l'IA aussi. Et heureusement, si Bruno n'est pas là cette semaine, eh bien Lino de la rédaction de Monde Numérique, lui, est fidèle au poste Lino Tovena. Alors Lino, raconte-nous cette belle histoire de robot.
Invité :
[
3:51] Le robot en question s'appelle SRT-H. il a réalisé une ablation complète de la vésicule biliaire sans qu'aucune main humaine ne tienne un scalpel. C'est plus qu'un simple bras articulé qui se contenterait de suivre un scénario préétabli. Il répond à la voix, il comprend des instructions comme « attrape la tête de la vésicule » ou « pose un clip ici ». Et surtout, il s'adapte en temps réel à ce qu'il voit. L'équipe a d'ailleurs rendu l'opération plus difficile en injectant des colorants pour simuler du sang ou en changeant la texture des tissus. Résultat, 100% de précision, même dans les moments les plus inattendus. Alors oui, il a mis plus de temps qu'un chirurgien humain, mais en termes de gestes, de choix, de rigueur, le niveau était celui d'un expert.
Monde Numérique :
[
4:30] Ça fait rêver, évidemment, mais on se demande comment un robot peut apprendre à opérer. Est-ce que c'est de l'intelligence artificielle classique ou c'est quelque chose de nouveau ?
Invité :
[
4:41] Alors justement, c'est là que ça devient fascinant. Le robot a été entraîné un peu comme Tchad GPT en regardant des vidéos annotées de vraies opérations. 17 heures d'enregistrement, 18 000 gestes humains analysés, il a ensuite été capable d'enchaîner 17 tâches chirurgicales complexes allant de la manipulation d'aiguilles à la coupe de tissu, en passant par l'identification d'artères. Il fonctionne en deux temps. Premièrement, une IA de vision identifie ce qu'il voit à l'intérieur du corps. Et ensuite, une autre transforme ça en mouvement précis. Saisir, couper, cautoriser, etc. C'est de l'apprentissage par imitation, mais avec une capacité d'adaptation jamais vue à ce niveau-là. Et surtout, le plus important peut-être, il sait s'auto-corriger. Il détecte quand il fait une erreur, en moyenne six fois par opération, et il ajuste tout seul son geste. C'est là qu'on parle d'autonomie réelle.
Monde Numérique :
[
5:29] On touche presque à de la science-fiction. Est-ce qu'on pourrait imaginer ces robots dans les blocs opératoires demain ?
Invité :
[
5:37] Alors non, pas demain matin. Et pour une raison simple, le robot a opéré un cadavre. Pas de sang qui gicle, pas de cœur qui bat, pas de respiration à gérer. Aucun des imprévus que rencontre un vrai chirurgien face à un patient vivant. Il s'agissait d'un environnement stable, maîtrisé, parfait pour un test, mais très éloigné des urgences de la vraie vie. Les chercheurs sont les premiers à le reconnaître. La prochaine étape, c'est de tester le système sur des animaux vivants. Et ensuite, peut-être un jour, sur l'humain. Mais attention, le but n'est pas forcément de remplacer les chirurgiens. C'est plutôt d'élargir leur champ d'action, de les assister, ou même de permettre à certains hôpitaux isolés d'accéder à des interventions complexes.
Monde Numérique :
[
6:14] Merci Lino Tovena. Donc, la robotique et l'IA surtout s'apprêtent à faire son entrée dans les blocs opératoires. Dites-moi, tiens, en réaction, si vous soyez prêts à vous faire opérer par un robot qui auraient appris comment faire grâce à de l'intelligence artificielle.
Monde Numérique :
[
6:32] Des nouveautés en IA, justement, avec OpenAI, qui a lancé ce jeudi son premier agent IA, ChatGPT Agent. Alors, un agent, c'est un outil d'intelligence artificielle qui ne se contente pas de générer des phrases ou des images, mais qui peut aussi effectuer des actions comme le ferait un humain. Donc, consulter des sites web, lancer des applications, cliquer sur des menus, remplir des formulaires, etc. ChatGPT Adjunct peut donc potentiellement faire plein de choses intéressantes, comme par exemple réserver un voyage à votre place, prendre un rendez-vous sur Doctolib ou passer une commande sur un site de e-commerce. Il agit dans une sorte de PC virtuel, il peut se connecter à n'importe quel site, il explique au fur et à mesure ce qu'il fait, et quand il a besoin par exemple d'un mot de passe ou de votre accord pour finaliser une transaction, il vous le demande. Techniquement, ChatGPT Agent est la fusion de deux outils existants d'OpenAI, Operator et Deep Research, et d'ailleurs il va remplacer Operator. ChatGPT Agent qui est disponible pour les utilisateurs des abonnements Pro, Plus et Team de OpenAI. Alors ça ressemble à des choses qui existent déjà chez des concurrents, comme par exemple Anthropique qui avait été l'un des premiers à proposer, à présenter un concept d'agent IA.
Monde Numérique :
[
7:52] Toujours en matière d'IA, la voix s'invite de plus en plus dans les outils d'intelligence artificielle. D'abord avec Chagipiti, encore lui, qui accepte désormais les fichiers audio. On va pouvoir lui envoyer des enregistrements de réunion, par exemple, pour lui demander des transcriptions, des résumés, etc. Alors, ce n'est pas encore disponible sur toutes les versions de Chagipiti, il faut un abonnement spécial. En France, la start-up Mistral a lancé Voxtral, qui est une brique de reconnaissance vocale, qui fonctionne en plusieurs langues, pareil, pour faire de la transcription, etc. Donc, open source, comme toujours chez Mistral, c'est assez prometteur. Ça devrait permettre, par exemple, de répondre au téléphone ou encore d'interagir avec un conducteur en voiture. Et d'ailleurs, un projet autour de Voxstral est testé actuellement chez Stellantis. Et puis, tiens, une appli que j'ai vue passer et que j'ai testée, dont je voulais vous dire un mot, ça s'appelle Soniox.
Monde Numérique :
[
8:45] C'est une nouvelle appli de transcription et de traduction en temps réel qui vient de Slovénie. Alors, ce n'est pas banal parce que la tech slovéne, on la connaît assez mal, il faut bien l'avouer. Et là, c'est le créateur de cette appli qui s'appelle Clemen Simonik qui m'a contacté pour m'en parler, m'a envoyé un mail. Donc, j'ai essayé Sonyox et c'est assez étonnant. En fait, ça fait des choses qu'on connaît déjà. On a vu ça chez Google ou autre. Donc, ça reconnaît.
Monde Numérique :
[
9:13] Lorsque vous parlez dans une langue, ça traduit dans une autre, ça permet d'avoir des conversations quand on est dans un autre pays. Aussi la transcription automatique en simultané pour prendre des notes très rapidement et puis pour traduire là encore. Mais là, la particularité c'est que c'est hyper rapide, hyper efficace ça fonctionne dans une soixantaine de langues reconnaissance du locuteur détection automatique de la langue, même des langues pas très connues comme évidemment le sloven, puisque ça vient de Slovénie donc c'est assez bluffant c'est une technologie qui n'est pas connue du grand public, qui a été utilisée jusqu'à présent par Samsung pour certains de ses produits et qui, désormais, arrivent sous forme d'applications mobiles, iOS et Android. Donc voilà, si ça vous intéresse, vous pouvez l'essayer. Sonyox a téléchargé dans votre store mobile.
Monde Numérique :
[
10:01] L'actu de la tech, c'est aussi les dessous de la vie des startups et notamment cette rumeur assez persistante selon laquelle Apple serait intéressée par la startup française Mistral, dont on parlait précédemment. Apple va-t-il racheter Mistral ? A noter qu'on avait été quasiment les premiers, je pense, à vous parler de ça. C'était dans le grand débrief avec François Sorel et Bruno Gaudier de Minetti. On évoquait ce bruit qui courait et qui vient donc à nouveau de prendre un peu d'élan avec une révélation de Bloomberg qui est généralement bien informée sur les projets d'Apple. Apple va-t-il racheter Mistral, le français, pour rattraper son retard en intelligence artificielle ? Alors, autant vous dire que ça fait du buzz, évidemment, mais ce n'est pour l'instant vraiment qu'une rumeur. C'est intéressant d'ailleurs car Carlos Diaz, mon camarade du podcast Silicon Carnet, a mis sur sa chaîne YouTube une vidéo dans laquelle il explique que selon lui, ça n'arrivera jamais cette histoire-là.
Monde Numérique :
[
10:59] Autre histoire de start-up dans les coulisses de la guerre des start-up et notamment en matière d'intelligence artificielle, un truc incroyable qui s'est passé ces derniers jours aux Etats-Unis. Ça mériterait presque de faire un épisode de Netflix. Alors, je vous raconte, ça s'est passé en trois temps. C'est d'abord OpenAI, la maison mère de Chagipiti, qui avait l'intention de racheter la société Winsurf. Winsurf, c'est une startup américaine spécialisée dans la génération de codes informatiques par intelligence artificielle. OpenAI était prêt à mettre 3 milliards de dollars sur la table. Mais ça n'a pas marché, le deal a échoué.
Monde Numérique :
[
11:34] Alors est entré en scène Google, Google DeepMind, qui s'est positionnée. Mais le problème, c'est que Google est une grosse entreprise qui ne peut pas faire tout à fait ce qu'elle veut sans courir le risque de tomber sous le coup de la législation antitrust américaine. Et donc, Google a fait un truc qui, apparemment, se pratique de plus en plus en recrutant le PDG de Windsurf ainsi que quelques employés, et puis aussi des licences sur l'usage de certaines technologies, le tout pour un montant de 2,4 milliards de dollars. Donc, Google Neatmine a fait ça avec probablement l'intention de récupérer ensuite, plus tard, le reste de la compagnie. En l'occurrence, 250 personnes par une autre manière. Sauf que là, paf, rebondissement. Eh bien, un troisième larron s'est invité dans l'histoire. Il s'agit de la société Cognition. C'est une start-up à l'origine de Devine, un agent IA spécialisé dans la programmation informatique également. Cognition qui a grillé la politesse à Google en quelque sorte et qui a signé un accord pour racheter ce qui restait de Windsurf. Voilà, je ne sais pas si vous arrivez à suivre toute l'histoire, mais en tout cas, en gros, ce qu'il faut retenir, c'est que OpenAI et Google se sont fait doubler par Cognition, cette entreprise peu connue, sauf dans le monde des développeurs. Et encore une fois, ça illustre bien cette course impitoyable et cette course au talent, notamment en matière d'intelligence artificielle générative actuellement. Voilà.
Monde Numérique :
[
13:01] Bon, qu'est-ce qu'on a encore cette semaine dans l'actu ? Eh bien, on a de la cybercriminalité, avec un joli coup de filet dans le monde des cybercriminels pro-russes. Europol et Eurojust, c'est-à-dire les agences de police et de justice européennes, annoncent avoir démantelé un énorme réseau de cybercriminels pro-russes. Son nom, No Name 05716, et ce groupe serait responsable de multiples attaques dans plusieurs pays contre des infrastructures critiques telles que des fournisseurs d'électricité, des transports publics, etc. Au total, plus de 74 000 attaques dans le monde depuis 2023, dont 2200 en France. Par exemple, en France, en 2023, le site Internet de l'Assemblée nationale avait été paralysé. En juin de la même année, c'était des sites de la RATP. Au Canada, plusieurs sites gouvernementaux, ainsi que celui du Premier ministre Justin Trudeau, avaient été attaqués. Et à chaque fois, c'était des attaques par déni de service, c'est-à-dire des attaques qui ne volent pas de données, mais qui bloquent l'accès au site. On sature par un grand nombre de demandes de connexion l'accès au site web. Alors, ça ne fait pas forcément beaucoup de mal, mais ce n'est pas bon pour le moral, on va dire.
Monde Numérique :
[
14:11] Eh bien voilà, plusieurs suspects ont été identifiés. des suspects, selon le communiqué d'Europol, agissant sans direction officielle de la part des autorités russes, mais quand même motivés par l'idéologie et la recherche de récompenses, car en fait ce groupe, c'était assez astucieux, avait mis en place des mécaniques de gamification, donc du jeu, du jeu vidéo, avec un système de badge, de récompense, de score, etc., pour pousser des petits hackers un peu partout dans le monde à essayer de faire des bêtises, et ils étaient rémunérés en crypto-monnaie. De nombreuses preuves ont été saisies. L'infrastructure du serveur central du groupe aurait été mise hors ligne. On rappelle que l'état-major français, donc les autorités militaires.
Monde Numérique :
[
14:54] Estiment que la Russie mène actuellement une guerre, une vraie guerre souterraine, notamment cyber contre l'Europe et en particulier contre la France. Ce genre de cyberattaque en fait très certainement partie.
Monde Numérique :
[
15:11] Retour en France, avec cette info qui vous intéressera si vous avez de jeunes enfants. C'est officiel, les sites pornographiques vont devoir vérifier l'âge des utilisateurs. Décision du Conseil d'État cette semaine, qui a validé un arrêté gouvernemental qui avait fait pas mal de bruit ces dernières semaines. La mesure avait été suspendue en juin et elle est désormais rétablie. L'objectif, c'est d'empêcher les mineurs d'accéder à des contenus pour adultes. Un bras de fer qui dure depuis plusieurs années. Et Lino Tovena, peux-tu nous résumer ça ?
Invité :
[
15:43] Oui Jérôme, et cette fois, le ton est ferme. Le Conseil d'État a estimé qu'il n'y avait pas d'urgence à suspendre la mesure. Résultat, la vérification d'âge est de nouveau obligatoire, y compris pour les sites pornographiques hébergés dans l'Union Européenne, même hors de la France. C'est une conséquence directe de la loi de 2024 qui impose aux plateformes de prouver que leurs utilisateurs sont majeurs. Et ça ne rigole plus, le gouvernement cible désormais les géants du X comme Pornhub, YouPorn ou XHamster, souvent installés à Chypre ou au Luxembourg. Certains avaient d'ailleurs répliqué en coupant leur accès aux utilisateurs français, histoire d'éviter la sanction.
Monde Numérique :
[
16:16] Voilà, et c'est justement cette stratégie de blocage, qui est un peu de la mauvaise foi, il faut l'avouer, qui avait poussé, malgré tout, le tribunal administratif à suspendre la mesure. Mais cette fois, l'État reprend clairement la main.
Invité :
[
16:28] Effectivement, et cette fois avec un cadre beaucoup plus clair. L'ARCOM, le régulateur français, impose des moyens de vérification anonymes. Les sites doivent proposer au moins une méthode garantissant le double anonymat. L'internaute ne donne ni son identité au site, ni à l'outil de vérification. Pas de carte d'identité scannée, pas de reconnaissance faciale. Le but, c'est la protection des mineurs sans fliquer les adultes. En clair, on cherche un équilibre entre vie privée et responsabilité numérique. Mais tout cela reste très technique et coûteux à mettre en œuvre. Ce qui explique pourquoi certains sites résistent encore.
Monde Numérique :
[
16:58] Alors, ce qu'il faut dire, c'est que ce n'est pas seulement une affaire franco-française. Ça concerne évidemment tous les pays et notamment tous les pays européens. Et l'Europe avance, elle aussi, sur ce sujet.
Invité :
[
17:08] Oui, 5 pays européens, la France, l'Italie, l'Espagne, la Grèce et le Danemark vont tester une application de vérification d'âge commune. Un prototype a été développé par la Commission européenne, alors ce n'est pas encore un outil unique imposé partout, on parle ici d'un principe commun, d'une base technique que chaque pays devra personnaliser, intégrer et surtout rendre compatible avec ses propres règles et systèmes comme France Identité en France. Cette démarche inscrit dans un mouvement beaucoup plus large, interdire l'accès aux réseaux sociaux au moins de 15 ans, comme Emmanuel Macron l'a récemment annoncé. L'idée, c'est d'avoir un socle européen commun pour protéger les mineurs, que ce soit face à la pornographie, à la violence ou aux dérives des plateformes sociales.
Monde Numérique :
[
17:47] Mais la question qu'on se pose, évidemment, c'est est-ce que ça marche vraiment ? Parce que certains pays ont déjà tenté de mettre en place ce genre de barrières et sans grand succès, il faut bien le dire.
Invité :
[
17:58] Et c'est bien là tout le problème. La Corée du Sud avait mis en place un couvre-feu numérique pour les mineurs, abandonnés, faute d'efficacité. En Chine, l'identification par pièce d'identité ou reconnaissance faciale fonctionne, mais dans un système beaucoup plus intrusif. Et ailleurs, les moyens techniques manquent, ou sont souvent contournés. Même dans l'Utah, aux Etats-Unis, des lois ont été votées, mais elles ne sont pas encore appliquées. Et le système de vérification par les App Store reste à être inventé.
Monde Numérique :
[
18:22] Merci Lino. Bref, la volonté politique est là, mais la technologie doit suivre. Et la France espère bien que ça fera bouger les lignes. En attendant, concrètement, les sites X n'ont plus vraiment le choix. Ils vont devoir filtrer ou bien ils se retrouveront bloqués.
Monde Numérique :
[
18:41] Alors si on reste un petit peu dans le même ordre d'idées, du côté des réseaux sociaux justement, on sait que les pouvoirs publics français se battent également pour limiter les effets pervers des réseaux sociaux sur les mineurs. Eh bien bingo, cette semaine ça a marché. En tout cas, le gouvernement a marqué les points puisque le 14 juillet, La Commission européenne a dit qu'elle était d'accord pour que chaque État membre puisse fixer, chacun dans son coin, un âge minimum. C'est-à-dire qu'en fait, la Commission a publié les lignes directrices qui vont permettre à chaque État de faire ça. C'est ce que réclamait la France, qui ne pouvait pas, toute seule dans son coin, pour des raisons réglementaires, faire exactement ce qu'elle voulait. Donc, elle va pouvoir déterminer. En France, ce sera 15 ans, l'âge minimum, 15 ans, pour avoir le droit de créer un compte sur un réseau social. Et là encore, il va falloir un système de contrôle qui sera probablement également celui qu'on vient d'évoquer pour les sites pornographiques.
Monde Numérique :
[
19:36] Allez, revenons à des choses un peu plus légères, avec peut-être un iPhone pliant. Depuis le temps qu'on en parle de cette histoire d'iPhone pliant, si c'est un sujet qui vous intéresse, réjouissez-vous, il pourrait voir le jour en 2026, fin 2026, d'après les rumeurs. Et des rumeurs persistantes quand même. On dit qu'Apple serait en train de travailler sur un modèle de pliant de type Fold. Alors Fold, c'est-à-dire qu'il s'ouvre dans le sens comme un portefeuille, en fait. Et quand on le déplie, ça donne un écran quasiment de la taille d'un petit iPad. C'est le contraire des smartphones de type Flip, c'est-à-dire qu'eux sont tout petits quand ils sont pliés. Et quand on les ouvre du bas vers le haut, on se retrouve avec un smartphone normal. Donc cet iPhone pliant, s'il voyait le jour, serait quand même un produit carrément haut de gamme. On parle d'un prix d'environ 2500 euros, plus de 2500 euros. Et comme c'est Apple, évidemment, il faudra se différencier, pas faire la même chose que les autres. Donc Apple travaille beaucoup, paraît-il, sur la fameuse pliure de l'écran, puisqu'il faut un écran souple pour faire ça. Sur la charnière également, c'est que Samsung avait beaucoup galéré pour ces histoires de charnière de smartphone. Eh bien là, ils utiliseraient un matériau hyper résistant et hyper léger qui s'appelle le liquid metal et qui est déjà utilisé par Apple. Vous l'avez peut-être eu entre les mains pour les petits pics, les petits trombones qui sont fournis avec les smartphones et qui servent à ouvrir l'emplacement de la carte SIM. Il y a un vrai marché pour le smartphone pliant aujourd'hui, il faut le dire, il faut le rappeler.
Monde Numérique :
[
21:05] Et d'ailleurs, Samsung vient de lancer ses derniers modèles, le Fold 7, le Flip 7 également. Fold 7 hyper fin, Flip 7 qui n'est donc pas du tout le premier de la gamme et qui connaît un certain succès, surtout en Asie. Et Samsung qui préparerait en ce qui le concerne maintenant un pliant en trois volets, comme Huawei, le chinois, qui a déjà sorti ce type de produit. Bon, il faut bien dire que ce n'est pas encore hyper généralisé quand même pour l'instant, en tout cas chez nous en Europe.
Monde Numérique :
[
21:35] Si vous êtes utilisateur du service WeTransfer, qui permet de transférer des gros fichiers par Internet, une news qui va vous énerver. WeTransfer, on l'a appris cette semaine, eh bien, vous aurez l'intention maintenant d'utiliser les fichiers envoyés par les utilisateurs pour entraîner ces modèles d'intelligence artificielle. Et le site a modifié ses conditions d'utilisation en ce sens. Donc, vous envoyez des fichiers, eh bien, dites-vous que WeTransfer va lire ce qu'il y a dedans pour entraîner ces modèles d'IA. sans consentement explicite à chaque fois, ni rémunération.
Monde Numérique :
[
22:09] C'est un changement qui devrait entrer en vigueur début août et évidemment qui suscite un certain nombre d'inquiétudes, notamment chez les créateurs professionnels de l'image parce qu'on pense surtout à un pillage des images puisqu'en plus, WeTransfer est beaucoup utilisé pour envoyer des créations graphiques.
Monde Numérique :
[
22:31] Avant de passer à la suite de Monde Numérique, un mot d'une technologie innovante qui permet de diffuser du contenu d'une manière complètement nouvelle sur Internet, en dehors du cadre d'un navigateur, il s'agit de Froganz, partenaire de Monde Numérique. Froganz permet de créer des sites légers, fonctionnants sur tous les appareils, quel que soit le système d'exploitation, ordinateur, tablette, casque de réalité virtuelle, etc. Froganz est une technologie libre et ouverte qui repose sur un protocole technique entièrement nouveau, sécurisé et respectueux de la vie privée. Froganz fait actuellement l'objet d'une offre de titres qui vous permet d'acquérir, si vous le souhaitez, des parts de la société F2R2 à l'origine de cette innovation. Pour mieux comprendre à quoi ressemble Froganz, retrouvez mon interview du cofondateur
Monde Numérique :
[
23:16] Alexis Tamas en audio sur le fil de ce podcast ou en vidéo sur la chaîne YouTube de Monde Numérique. Et pour tout savoir sur Froganz, Rendez-vous sur le site f2r2.fr, f2r2.fr.
Monde Numérique :
[
23:33] Si vous aimez les podcasts sur des sujets divers et variés, un mot pour vous signaler un podcast qui pourrait peut-être vous intéresser. J'ai eu le plaisir récemment d'être invité du podcast Médiarama de François Desfossés. C'est un podcast qui s'intéresse, comme son nom l'indique, aux médias et aux médias numériques. Une heure de conversation au cours de laquelle on parle de la révolution de ChatGPT face au monopole de Google, notamment de l'impact de tout cela sur l'accès à l'information pour les utilisateurs, mais aussi pour les professionnels des médias, conséquences sur les modèles économiques. Et puis, je raconte aussi comment, personnellement, j'utilise l'intelligence artificielle pour fabriquer monde numérique. Voilà, Mediarama, épisode numéro 255 en date du 10 juillet 2025. Vous trouverez le lien en description de cet épisode de Monde Numérique.
Invité :
[
24:23] Musique Musique Musique,
Invité :
[
24:29] Musique Monde numérique, le meilleur de la tech Musique Musique.
Monde Numérique :
[
24:37] Musique Musique, Il est temps de passer à la suite, de monde numérique, les interviews, alors c'est l'été, je vous l'ai dit, des rediffusions mais aussi des interviews originales, alors on va réécouter Luc Julia, on va réécouter Bruno Maisonnier de la société Honor the Brain, mais tout de suite on parle de vidéos immersives au service de la patrie. Bonjour Franck-David Cohen.
Invité :
[
25:12] Bonjour.
Monde Numérique :
[
25:13] Vous êtes cofondateur de la société française Immersive Flashback. Alors, on a pu voir à l'occasion du 14 juillet, sur les images, sur toutes les télés, un étrange appareil qui était derrière Emmanuel Macron, à la fois dans la tribune présidentielle et puis au moment où il descendait les Champs-Elysées. Donc une caméra, mais une caméra pas banale avec deux objectifs. Et c'est vous qui êtes à l'origine de cette prise de vue un peu spéciale. Expliquez-nous exactement de quoi il s'agissait. À quoi ça sert ? Qu'est-ce que c'était que cette caméra ?
Invité :
[
25:46] Alors, cette caméra est effectivement une caméra immersive qui possède deux objectifs pour avoir une image en stéréoscopie à 180 degrés. L'intérêt de capter des images avec cette caméra, c'est que muni d'un casque Apple Vision Pro, par exemple, vous êtes littéralement téléporté dans la scène. Vous êtes, en fait, vos yeux sont les objectifs de la caméra. Donc, vous pouvez regarder autour de vous et vous avez le sentiment d'être vraiment téléporté puisque vous voyez tout en relief. C'est exactement comme vos yeux. Et il faut vraiment le voir pour le croire. C'est exceptionnel et absolument unique comme sensation.
Monde Numérique :
[
26:26] Donc, ça veut dire qu'on va pouvoir revivre ce défilé du 14 juillet un peu comme si on était président de la République, c'est ça ?
Invité :
[
26:35] L'idée, c'est de pouvoir revivre ce 14 juillet aux côtés du président de la République, dans une place de choix. Par exemple, sur le commande-car, comme vous avez pu voir, la caméra a été placée juste à l'arrière du commande-car pour la descente des Champs-Élysées. Donc là, vous avez une place qui est jusque-là réservée finalement à très, très peu d'heureux élus, notamment les huit présidents de la Ve République.
Monde Numérique :
[
27:03] Comment est-ce que cette prise de vue a-t-elle été décidée ? Et puis, quelle va être l'utilisation ?
Invité :
[
27:10] Comment ça a été décidé ? On a rencontré l'équipe du président de la République il y a un peu plus d'un mois et demi. On leur a montré ce qu'on faisait. Nous, chez Immersive, on est spécialisés dans la réalisation de films immersifs de très haute qualité. Donc, on ne fait pas, on fait uniquement des films à 180 degrés en 3D. C'est vraiment très, très précis parce qu'il y a aussi des films à 360. Il y a tout un tas de choses. Il y a des expériences de réalité virtuelle. Voilà, tout ça n'a vraiment rien à voir avec ce qu'on fait. Nous, on est vraiment sur du film en prise de vue réelle. Et finalement, on s'est rendu compte qu'assez peu de gens avaient expérimenté ça. Et ils ont plutôt tous, vous savez, un mauvais souvenir de la VR en disant « Ah oui, j'ai essayé ça, ça me donne un peu la nausée, etc.
Monde Numérique :
[
28:01] » C'est pixelisé, c'est pas terrible.
Invité :
[
28:05] C'est pas comme un jeu vidéo. Nous, c'est absolument pas la même chose. Alors certes, on utilise des casques pour regarder les vidéos, mais la similitude s'arrête là, en fait. Là, on est vraiment dans la réalité, et c'est ça qui est absolument bluffant. Et quand on a montré ce film à l'équipe du président de la République, ils ont adoré, ils ont trouvé ça très très fort. Et ils ont voulu défendre le sujet auprès du président pour justement permettre au public, permettre aux citoyens finalement de pouvoir vivre ce moment avec lui.
Monde Numérique :
[
28:40] Alors quand est-ce qu'on le verra ? Quand est-ce qu'on pourra voir cette vidéo ?
Invité :
[
28:44] Alors cette vidéo sera diffusée à la Maison Élysée, qui est en fait le musée qui est juste en face du Palais de l'Élysée. Il y aura donc des casques qui seront disponibles pour que les visiteurs puissent regarder et vivre ce moment, vivre cette expérience. Cette expérience sera également proposée aux Journées du patrimoine en septembre.
Monde Numérique :
[
29:05] D'accord, ok. Donc là, on enregistre cette interview à la mi-juillet 2025. Ça devrait être disponible quand ?
Invité :
[
29:15] Alors, ce sera disponible en septembre. Là, on a commencé la post-production. Donc, on a pu voir les différents plans qu'on avait pris, la qualité des images. Voilà, je n'en dis pas beaucoup plus. On est contents.
Monde Numérique :
[
29:29] C'est la question que j'allais vous poser. Tout s'est bien passé techniquement parce qu'on doit être un peu angoissé quand même de se dire, aïe, aïe, aïe, est-ce que le truc s'est bien mis en marche ? Est-ce qu'il n'y a pas un problème technique ? Parce que vous, vous n'y étiez pas du coup pour vérifier tout ça sur place. Enfin, pas dans la voiture du chef de l'État.
Invité :
[
29:45] J'étais pas dans la voiture. Et effectivement, c'est un gros challenge pour différentes raisons. Et effectivement, on peut pas demander au président de la République de remonter les Champs-Élysées pour faire une deuxième prise.
Monde Numérique :
[
29:56] Donc, il vaut mieux que ça marche. Dites si ça marche bien, etc.
Invité :
[
29:59] Voilà. Donc, ça, c'est pas possible. On a organisé les choses pour prendre le moins de risques possibles. On a fait beaucoup d'essais. Et il y a un énorme challenge qui existe en immersif. c'est à partir du moment où on insère du mouvement dans l'immersif pourquoi ? parce qu'en fait quand vous regardez un film immersif votre corps ne bouge pas, Donc, vous regardez quelque chose et si ça bouge, alors votre corps ne bouge pas, il va y avoir un petit sujet d'oreille interne puisque vos yeux vont renvoyer à votre cerveau une information qui n'est pas cohérente avec ce que votre oreille interne renvoie à votre cerveau.
Monde Numérique :
[
30:34] Et c'est là qu'on peut avoir la nausée, donc.
Invité :
[
30:36] Exactement, et c'est là qu'on peut avoir la nausée. C'est exactement le même phénomène quand on a le mal de mer ou le mal des transports. Donc, il faut éviter au maximum ça. Alors, il y a un certain nombre de règles qui peuvent s'appliquer pour limiter, voire complètement supprimer cet effet-là quand il y a du mouvement. Par exemple, la vitesse du mouvement est très importante. Si vous bougez énormément, ça va être compliqué. Si vous changez de direction, c'est une catastrophe. Donc, il faut avoir des travelling qui sont très lents, rectilignes et utilisés avec parcimonie. Voilà, grosso modo, la règle est celle-là. Donc, le commande-car, ce qui est bien, c'est qu'il roule à 10 km heure. Donc c'est relativement lent avec des systèmes de stabilisation pour éviter que la caméra bouge comme ça parce que l'avenue des Champs-Élysées est quand même pavée et c'est quand même un 4x4 donc en termes de stabilisation on peut faire mieux quand même donc on a installé des systèmes de stabilisation de pointe pour justement permettre ce mouvement d'être le plus smooth possible.
Monde Numérique :
[
31:37] C'est la première fois que vous faisiez ce genre de prise de vue ?
Invité :
[
31:42] Sur le commande car, c'est la première fois dans l'histoire que quelqu'un a fait cette prise de vue. Donc, c'est toujours un challenge. À partir du moment où il y a du mouvement, c'est un challenge. D'ailleurs, je ne sais pas si vous avez pu voir le clip qui a été fait par Apple à l'occasion de la sortie du film F1, où ils ont mis la caméra dans la Formule 1 avec Brad qui fait un tour de circuit. Donc là aussi, je pense qu'en termes de challenge, ça devait être pas mal pour stabiliser la caméra.
Monde Numérique :
[
32:09] Là, on peut penser qu'on retrouvera des extraits de votre film, sans doute, dans une prochaine keynote d'Apple. Ils seront trop contents de pouvoir montrer ce type d'utilisation.
Invité :
[
32:17] Ça, je ne sais pas, ça appartiendra à Apple s'ils veulent mettre ça en avant. En tout cas, j'imagine qu'ils sont au courant qu'on a fait ça et que ça ne leur a pas échappé.
Monde Numérique :
[
32:27] Franck-David Cohen, c'est purement expérimental pour vous, où il y a vraiment un marché à venir pour ce genre de vidéos immersives ?
Invité :
[
32:37] Écoutez, en fait, pour tout vous dire, ça a commencé par une passion. Moi, je suis un geek de longue date. Et quand j'ai découvert le format immersif en 2017, j'ai trouvé que c'était génial parce que j'ai trouvé que c'était finalement une manière de créer des capsules temporelles pour revivre des moments. Donc, de manière très personnelle, je trouvais que c'était génial de pouvoir revivre des moments de vie avec ses parents, ses grands-parents, ses enfants, de retrouver des moments du passé. Alors, 2017, ça remonte quand même déjà relativement loin et il y a des images qui ont déjà beaucoup de valeur pour moi. Et au fur et à mesure des années, la technologie a évolué, les caméras ont évolué, les casques aussi, pour arriver à un niveau de précision qui est absolument bluffant, en particulier depuis l'arrivée de l'Apple Vision Pro, qui a complètement été game changer sur le secteur. Donc au début, c'était clairement une passion, sans objectif autre que simplement se faire plaisir. Et aujourd'hui, en réalité, le système est tellement saisissant et tellement puissant qu'il permet des tonnes de cas d'usage. Même aujourd'hui, alors que les gens n'ont pas de casque, finalement, très peu, puisque finalement, il y a à peu près un peu plus de 20 millions de casques MetaQuest qui ont été vendus. Sur l'Apple Vision Pro, on n'a pas exactement les chiffres, mais ça doit être entre 500 000 et 1 million.
Invité :
[
34:04] Donc, c'est des audiences qui sont relativement petites à l'extérieur du monde.
Invité :
[
34:10] Donc, si la question, c'est est-ce qu'il y a un marché consumer aujourd'hui ? Clairement pas. Il n'y a pas de marché consumer aujourd'hui. Mais par contre...
Monde Numérique :
[
34:16] C'est pour ça que je vous posais la question plutôt au futur, en fait. C'est-à-dire que vous, vous y croyez quand même ?
Invité :
[
34:21] Ah oui, j'y crois quand même. Là, par exemple, à VivaTech, je ne sais pas si vous avez eu l'occasion d'aller sur le stand de la SNCF, mais la SNCF va sortir le TGVM l'année prochaine. Et sur le stand de la SNCF, vous aviez les sièges du TGV, vous mettiez le casque et vous aviez une reconstitution 3D qu'on a faite avec notre collectif qui s'appelle Studio 84, parce qu'on a aussi d'autres compétences qui viennent se rajouter à la nôtre, et une vidéo immersive où vous étiez en gare, etc. Donc, en fait, à partir du moment où vous avez un intérêt d'emmener les gens quelque part, c'est extrêmement puissant. Si vous voulez, par exemple, réserver vos vacances, vous pourriez aller en agence de voyage, mettre un casque et voir les chambres d'hôtel, les différentes options possibles, destinations, etc. En ayant, non pas là une photo, comme on voit souvent sur les sites, en grand angle, dans une chambre qui fait 8 mètres carrés. Et vous avez l'impression que c'est le château de Versailles, alors qu'en fait, elle fait 8 mètres carrés. là vous mettez le casque et vous voyez les choses telles qu'elles sont puisque toutes les proportions sont respectées donc vous êtes littéralement téléporté vous pouvez regarder observer et apprécier les volumes merci.
Monde Numérique :
[
35:28] Beaucoup Franck David Cohen co-fondateur de la société Immersive Flashback, En janvier de cette année, Donald Trump annonçait le fameux projet Stargate, grand projet d'investissement en matière d'intelligence artificielle. Les Chinois dévoilaient le modèle DeepSync, un super modèle concurrent de GPT et très économe en ressources a priori. À ce moment-là, je recevais, comme chaque mois dans le monde numérique, Luc Julia, co-inventeur de Siri, directeur scientifique de Renault, docteur en intelligence artificielle, pour commenter les événements du moment. Et Luc Julia nous parlait notamment des LLM, les grands modèles de langage. Vous le savez, qui sont à l'origine de tous les outils d'IA génératifs qu'on utilise aujourd'hui, mais qui, selon Luc, n'ont pas d'avenir, notamment pour des raisons environnementales. Il se mouille, Luc Julia, et il ne mâche pas ses mots, notamment quand il parle du dipsyc chinois. C'était le 4 février 2025 sur Monde Numérique Rediffusion.
Invité :
[
36:38] Alors, deep shit, comme je dis moi, mais bon, c'est parce que ça m'amuse. Mais deep seek. Et donc, deep seek, c'est quoi ? Deep seek, c'est donc cette IA qui n'a rien coûté. 6 millions pour faire un truc qui est équivalent en performance à un OpenAI, aux dernières générations d'OpenAI, qui ont mis des centaines de millions pour le créer. D'accord ? Donc, le modèle est au moins aussi bon qu'OpenAI. Et même à l'inférence, il ne coûte rien. Parce qu'OpenEA aujourd'hui, l'abonnement est à 20 dollars par mois. L'abonnement de Deepsheet, c'est 50 cents par mois. Donc l'inférence, c'est-à-dire l'utilisation du modèle. Voilà. Au moment où tu l'utilises, c'est 50 cents par mois. Ce qui est bon, donc extraordinaire. Alors bon, après, il faut se calmer, il faut regarder tranquillement. Il faut se demander où est la vérité. parce que ça vient de Chine, c'est toujours un peu compliqué ce qui vient de Chine. Et donc ici, il y a certainement du vrai dans le fait qu'ils n'ont pas dépensé beaucoup de sous. On ne sait pas si M. Xi a donné un peu d'argent, on ne sait pas exactement. Donc le gouvernement, tu veux dire ? Le gouvernement, M. Le Président Xi, s'il a donné des sous ou pas, donc s'ils ont bénéficié des infrastructures chinoises et donc, du coup, qu'ils n'ont pas forcément payé. On ne sait pas si les 50 cents, c'est du dumping.
Invité :
[
38:07] Donc, il y a plein de choses qui sont un peu bizarres. Et puis là, maintenant, aujourd'hui, évidemment... On commence à se demander si les modèles n'ont pas été un peu copiés. Et voilà, c'est ce que dit OpenAI, qu'en fait, ça a été entraîné par ce qu'on appelle distillation, et donc ça revient à une forme de plagiat, c'est ça ? Qu'est-ce que c'est, la distillation ? En gros, la distillation, tu prends un modèle existant, alors les modèles sont plus ou moins open source, alors pas tous, les modèles d'OpenAI ne sont pas vraiment open source. Donc c'est pour ça que c'est un peu bizarre que ce soit les modèles d'OpenAI, mais ça peut être, quand tu as un modèle open source, tu peux le prendre et tu peux changer, alors quand t'as l'open source t'as non seulement les données et t'as les algorithmes donc tu sais comment le modèle est créé et tu sais avec quelles données ils sont créés et donc tu peux toi rajouter tes propres données ou enlever des données pour pouvoir le changer un tout petit peu, on appelle ça aussi du fine tuning, d'accord donc on raffine en quelque sorte le modèle mais tu pars de quelque chose d'existant, c'est assez coûteux parce que bon quand même quand ça coûte des millions de dollars c'est quand même assez coûteux mais c'est beaucoup moins coûteux que de partir de zéro D'accord ? Donc, c'est ça. Là, comme c'est un modèle qui n'est pas open source, a priori, donc le distilling, c'est qu'on prendrait tout ce qui est.
Invité :
[
39:21] En fait, les réponses déjà toutes faites, et on ferait répondre le système à plein, plein de questions, et on récupérerait les réponses pour créer le modèle. C'est-à-dire que tu le crées à partir, tu l'utilises, tu le fais tourner, et tu fais tourner et tu suces les données pendant que tu fais tourner. C'est du pompage.
Invité :
[
39:41] Tu le fais marcher et tu le réenregistres c'est un enregistrement si tu veux en quelque sorte presque mais tu crées le modèle pendant que tu enregistres mais est-ce que c'est illégal ça ? Oui ça pue c'est exactement ce qui s'est passé dans les premières versions de ces IA génératives les premières versions des IA génératives pomper internet donc si tu veux c'était un peu la même idée sauf que là il fallait quand même créer le modèle, là maintenant qu'on connait on sait comment on crée des modèles c'est beaucoup plus facile en fait à pomper c'est à dire que quand tu regardes les open source les open source t'expliquent comment, tout ça est utilisé donc c'est relativement facile entre aller chercher les données quelque part, aller pomper et puis après savoir comment tu fais tu fais ce modèle et donc le chiffre de 6 millions et demi, a du sens. Si tu veux, dans ces cas-là, si c'est du pompage pur, si ça a du sens, ça serait possible.
Invité :
[
40:38] Les gens de Meta, donc ça, c'est les gens d'Open Air et qui disent ça aujourd'hui. La vérité, c'est qu'on n'en sait quand même à peu près rien. Donc, il faut un peu attendre quelques jours, au moins, pour avoir ces réponses, parce que les gens de Meta disent la même chose. Et eux, ça serait un peu plus sensé, en fait, parce que Meta est vraiment, enfin, c'est de l'Open Source à la à la Zuckerberg, c'est-à-dire que c'est pas du vrai open source, mais c'est quand même un peu plus open source, et donc ça serait beaucoup plus facile de couper les trucs de méta. D'accord ? Ça serait pas la peine de faire cette espèce d'enregistrement, tu vois, un peu comme on faisait... C'est comme si tu faisais... Que tu prenais avec un caméscope dans un cinéma le film, tu vois, comme il y avait beaucoup, à un moment donné, des DVD qui étaient piratés comme ça. Bon, c'était dégueulasse, mais c'est comme ça. Donc ça, ça serait le truc qu'ils auraient fait avec OpenAI. Le truc qu'ils auraient fait avec méta, ça serait beaucoup plus joli. Ça serait de cassette à cassette, tu vois, et tu copies et c'est joli. Donc ça serait plus sensé, mais bon, en gros, là, les gens commencent à dire quand même qu'en gros, c'est pompé, quoi. Parce que ce qu'on disait d'une manière assez unanime dans les derniers mois, c'est que les Chinois avaient à peu près un an, deux ans de retard sur les IA génératives américaines de la côte ouest.
Invité :
[
42:00] Donc là, ce serait quand même un gap qui est franchi vachement rapidement. Ils rattrapent leur retard avec cette manipulation. Oui, ils rattraperaient leur retard, mais le truc qui est intéressant, surtout avec Deep Shit, c'est que ça serait entraîné sur des puces qui seraient d'une génération précédente, et même peut-être pas des GPU. Tu vois ? Alors, ça veut dire quoi ? Ça veut dire que, évidemment, c'est pour ça que Nvidia, le jour même, enfin le lendemain, a perdu 17% de sa valeur en bourse. 17%, un milliard. C'est quand même pas mal. Plusieurs milliards, d'ailleurs. Pas un milliard, mais plusieurs milliards de dollars.
Invité :
[
42:38] Donc, il y a définitivement quelque chose qui est bizarre. Ouais. Luc, est-ce que tu penses que c'est quand même de nature à rebattre les cartes en matière d'IA ? Pour moi, la bonne nouvelle, c'est que si vraiment il y a quelque chose qui a été fait qui utilise moins de ressources, d'accord ? Donc, pas forcément des GPU de dernière génération, mais qu'on utilise des CPU et des choses donc moins fortes. Ça va dans le sens où je crois que ça devrait aller, dans le sens de la frugalité. Et donc, en même temps, ça met un grand coup dans la gueule à Stargate. D'accord ? Parce que c'est exactement le truc contraire. Et donc, ça, bon, ça, ça me fait plaisir. Je pense que c'est possible qu'on utilise des trucs plus frugaux. Je pense que c'est vraiment possible. Donc, ça, ça a définitivement une opportunité de rebattre les cartes, parce que ça va permettre aux gens de réaliser que ce n'est pas la peine de faire un Stargate, que ce n'est pas la peine de continuer dans cette course. Je ne sais pas si tu m'as entendu parler des IA génératives dans la dernière année, mais moi, je suis persuadé que les IA génératives telles qu'elles sont aujourd'hui sont mortes.
Invité :
[
43:38] C'est terminé. On les a exploités au maximum. On a fait des modèles avec beaucoup, beaucoup de données. Et on s'est aperçu que finalement, quand c'est des domaines qui sont trop génériques, il y avait quand même beaucoup d'erreurs, il y avait des hallucinations, il y avait tout ça. Donc, c'est des modèles qui sont pas vraiment... C'est rigolo, mais c'est pas vraiment exploitable en générique, en général. D'accord ? Par contre, on a trouvé des solutions, on a trouvé des use cases pour les exploiter dans des domaines particuliers. Et c'est ce qu'on a vu après avoir On a fait plein de POC, plein de pouf concepts partout, dans tous les sens. On a trouvé des cas d'usage, mais en fait, on s'est aperçu que ce n'était pas la peine d'avoir le gros machin et qu'on pouvait faire soit du fine tuning, dont on parlait tout à l'heure, soit ce qui s'appelle du RAG, qui sont en fait des diminutions de ces modèles et qui sont maintenant utilisables dans ces domaines particuliers.
Invité :
[
44:25] Et ça, pour moi, c'est ça l'avenir. Et quand on parle d'IA agentique, par exemple, qui est censé être la prochaine génération de CIA générative, Les agents antiques, ce n'est pas autre chose que des agents qui vont être spécialisés dans des domaines particuliers et qui vont collaborer, mais qui vont être spécialisés. Et donc, du coup, c'est pour moi exactement la marche normale de ces IA. Elles vont devenir plus spécialisées, plus frugales et plus intéressantes aussi, plus intéressantes et plus éthiques à être utilisées. Parce que l'éthique de ces grosses IA qui font tout et n'importe quoi, et surtout n'importe quoi des fois, ce n'est pas viable, ce n'est juste pas viable. Aujourd'hui, on n'aurait pas assez, c'est pour ça qu'ils veulent construire ces Stargate, on n'aurait pas assez de capacité de calcul et d'électricité pour avoir autant de requêtes JGPT que de requêtes Google. C'est juste pas possible donc c'est embêtant et puis en plus.
Invité :
[
45:27] Je te parlais de l'eau tout à l'heure moi ça m'inquiète beaucoup parce que dans ces data centers qui sont énormes avec plein de machines qui se chauffent les unes les autres on refroidit avec beaucoup d'eau et l'eau s'évapore en fait elle est perdue, et ça si tu veux Altman s'est tiré une balle dans le pied il y a un mois à peu près il a lui-même dit qu'une requête de Chagipiti O3 là, enfin les derniers dernières versions, c'était l'équivalent il a dit 3 roquettes équivalent à 1,5 litre d'eau perdu. 1,5 litre d'eau c'est une aberration on avait calculé des trucs un peu différents on avait calculé que 20 roquettes JGPT c'était à peu près 1,5 litre d'eau en d'un sens que ce soit 3 ou 20 c'est pas grave, c'est trop, donc il faut arrêter cette course là et donc un truc comme DeepSeek ça permet de penser que c'est possible. D'accord ? Et juste pour ça, c'est bien.
Invité :
[
46:25] Merci, Luc, Julia. Et je te dis au mois prochain. Avec plaisir. On trouvera certainement quelque chose d'autre.
Monde Numérique :
[
46:37] Il a fondé, il y a bien longtemps, l'entreprise française Aldebaran, qui avait donné le jour à des petits robots, Pepper et Nao, entreprise malheureusement mise en liquidation en juin 2025. Plus récemment, il est le cofondateur de la société Another Brain et auteur d'un livre qui s'appelle Organic AI. Je veux parler de Bruno Maisonnier. Et dans ce livre, il décrit une nouvelle forme d'intelligence artificielle à venir, basée, selon lui, sur les cellules du cortex humain. Il était dans Monde Numérique le 22 janvier 2025.
Invité :
[
47:11] En 1981, il y a eu un prix Nobel de médecine, 1981, c'est il y a longtemps, qui explique le fonctionnement de base du cortex cérébral. Or, le cortex, c'est là qu'est traité l'essentiel de l'intelligence, les fonctions d'intelligence du cerveau humain. Donc, l'essentiel de l'intelligence fait par le cortex, et il y a quelqu'un qui décrit le cortex. Le cortex, c'est une espèce de surface uniforme, comme une espèce d'étoile cirée de 65 cm de diamètre qui est froissée pour tenir dans le crâne, sinon ça ne tiendrait pas. Et quand on regarde au microscope électronique, on se rend compte que sur cette surface, sur le cortex, il y a une espèce de truc qu'on appelle un agrégat de neurones, une colonne corticale, une petite colonne corticale, et qu'il y en a 200 millions côte à côte et qui travaillent toutes ensemble. Ces 200 millions de colonnes corticales qui sont toutes les mêmes, font toutes les fonctions de l'intelligence, Et c'est là que je fais un peu le parallèle avec, non pas 200 millions d'abeilles, mais avec des abeilles, des thermies, des fourmis, des tas d'agents, des insectes qui sont des agents élémentaires ou des individus qui fonctionnent chacun séparément dans leur coin mais qui coopèrent, comme le font les colonnes corticales. Donc, il y a un parallèle qui est assez fort et assez intéressant et même assez fécond à creuser sur la comparaison entre la façon dont les abeilles fonctionnent, par exemple, et les colonnes corticales fonctionnent.
Invité :
[
48:33] Donc, il y a ce livre qui explique tout ça. Est-ce que ça veut dire que derrière, vous êtes déjà sur ce type de travaux au sein de votre entreprise Another Brain ? Absolument. C'est-à-dire, non seulement on essaie de comprendre le cerveau, on utilise ce qu'on a compris du cerveau, on le modélise. Et à quel point ça nous a dit quelque chose.
Invité :
[
48:54] Et cet algorithme, on le programme et donc on réalise à Another Brain les fonctions de base de l'intelligence. Et quand on aura suffisamment de fonctions assemblées ensemble, on aura réalisé une véritable intelligence artificiellement. Une intelligence artificielle, c'est une vraie intelligence mais faite artificiellement et qui fonctionnera comme le cerveau. Oui, c'est ça qu'on est en train de réaliser. Et vous en êtes où aujourd'hui ? On pense qu'avant juin, on aura un démonstrateur. C'est-à-dire qu'on est suffisamment avancé pour dire on va faire quelque chose qui fait une partie des fonctions, il n'y aura pas tout, mais il y aura une partie qui est suffisamment probante pour qu'en voyant ça, on se dise, bon sang, mais ils ont effectivement compris comment marche l'intelligence et ils sont effectivement capables de le traduire en algorithme. Donc donnons-leur les moyens, c'est un des objectifs du livre, donnons-leur les moyens pour qu'ils transforment ça en une intelligence complète. C'est un démonstrateur en choix. D'accord. Et donc clairement, aujourd'hui, vous êtes en quête de soutien, de financement aussi, etc. Non, aujourd'hui, je ne suis pas en quête de soutien. Aujourd'hui, je suis focalisé sur traduire nos algorithmes en un démonstrateur opérationnel. Et je ne fais que ça et rien d'autre. Et quand j'aurai ça que je serai capable de montrer, à ce moment-là, j'irai frapper à différentes portes en disant, voilà, on a vachement avancé, on a quelque chose qui prouve que le chemin qu'on suit est très original, très différent, et très puissant.
Invité :
[
50:17] Et donc, ça vaut un coup de le financer. pour les pouvoirs publics, mais en particulier parce qu'il est très différent. Si on fait la même chose que tous les autres, c'est difficile d'avoir de la souveraineté. Mais si on fait complètement autrement, par définition, c'est souverain ce qu'on fait. Ou une autre voie sur faire de l'intelligence artificielle. C'est-à-dire que pour vous, derrière ça, il y a cette notion encore de souveraineté numérique, de rendre un peu, de redonner de l'indépendance et de l'autonomie technologique à la France et à l'Europe. Alors, je ne sais pas si c'est derrière ça, mais Mais en tout cas, c'est quelque chose qui me tient à cœur. Je suis choqué, peiné par...
Invité :
[
50:57] Les réactions que j'entends ici ou là, quand on voit les réactions françaises face au développement pour les Américains, les petits moyens ridicules qu'on y met sans se préoccuper, mais qui sont suffisants, qui donnent de suffisamment résultats, des petits résultats, pour qu'un ministre puisse sortir la tête haute en disant « Mais nous, regardez, on a ci, on a ça, on n'est pas d'huile, on est bon, on avance.
Invité :
[
51:19] » Tu as vu comme moi, j'imagine, les annoncières de Trump et les autres, les Américains, ils vont mettre 500 milliards de dollars. En plus, qu'est-ce que mettent les GAFA, qui sont 200 milliards de dollars, chacun, tous ensemble les GAFA, ils mettent 200 milliards de dollars chaque année, sur des sommes colossales. Et nous, on met le centième de ça, et on les rattrape. Donc, les rattraper, ce n'est pas possible, du coup, il faut prendre un autre chemin. Oui, si on essaie, enfin, Sun Tzu nous l'avait expliqué il y a 2500 ans, si on essaie de faire comme les autres, Alors, pour après, faire la même chose qu'eux, mais en allant moins vite, en étant moins intelligents, moins riches, etc. Quand je dis moins intelligents, c'est que tous les gens les plus intelligents, même de chez nous, ils les embauchent. Donc, globalement, ils sont plus intelligents, plus riches et ils avancent. Donc, qu'est-ce qu'on a comme espoir de les rattraper sur leur terrain ? La seule solution, c'est de changer de terrain, c'est d'aller sur le terrain d'après, de prendre de l'annonce sur le terrain d'après. C'est la seule solution. Pour revenir à cette IA organique de manière plus précise, Bruno Maisonnier, Ça ressemble à quoi ? Ça se programme avec un ordinateur classique ? C'est conversationnel comme un chat GPT ? Ce serait quoi ?
Invité :
[
52:28] Ce sera plutôt conversationnel, mais en fait, c'est multimodal. C'est-à-dire que notre cerveau, lui, il traite de la même façon les informations qui viennent des yeux, des oreilles, du son, etc. Il a le même algorithme de base qui fait tout. Et donc, c'est ça qu'on aura, nous, au bout du chemin. Et du coup, on sera capable petit à petit de lui parler, il reconnaîtra les mots, les paroles et les phrases, mais on pourrait lui faire la gestion et lui montrer des trucs. On pourrait lui montrer des vidéos en disant qu'est-ce que c'est que ça, qu'est-ce que c'est... Enfin, on interagira de façon naturelle avec ce système-là.
Invité :
[
53:02] La même causalité, c'est un élément clé pour nous. C'est-à-dire, le système, il va... En fait, notre cycle, il va apprendre tout seul à partir d'exemples, à partir d'être exposé à plein d'expériences, à plein de situations, et tout seul, il va en tirer des leçons, il va en tirer l'essence des situations en question pour être capable de proposer des réponses. C'est un peu ça, le principe. Oui, c'est la théorie que défend Yann Lequin qui dit que les LLM actuels sont forcément limités, atteindront des limites, parce qu'ils ne fonctionnent pas comme nous-mêmes qui, finalement, il suffit qu'on tombe une fois dans les escaliers pour comprendre qu'un escalier, c'est dangereux. Ben oui, ben oui. Quand on voit un film d'alien nouveau qu'on n'a jamais vu, la première fois qu'on voit l'alien, on est surpris, la deuxième fois, on le reconnaît, on sait ce que c'est. On l'a pris en une seule fois. Et c'est ça que vous voulez faire ? C'est une IA qui apprendrait en une seule fois ? Oui, en deux fois plutôt, mais enfin, c'est un nombre toi qui apprends. Merci beaucoup, Bruno Maisonnier. Je rappelle le titre de ce livre qui vient de sortir et qui explique tout ça en détail.
Invité :
[
54:04] Organic AI, paru aux éditions Herman. Merci d'avoir été dans Monde Numérique. Merci, Jérôme.
Monde Numérique :
[
54:20] Pour retrouver ces interviews en version intégrale la semaine prochaine sur le fil du podcast monde numérique en épisode séparé comme d'habitude, voilà c'est la fin de monde numérique l'hebdo du 19 juillet 2025, merci de l'avoir écouté jusqu'au bout n'oubliez pas de laisser un commentaire, des petites étoiles surtout sur Apple Podcast essentiellement mais également vous pouvez sur Spotify ou Deezer ou sur la plateforme d'écoute de votre choix si celle-ci le permet et puis réagissez si ça vous tente sur le site du monde du... Et puis réagissez, si ça vous dit, sur le site mondedumérique.info ou sur les réseaux sociaux, vous pouvez m'envoyer des messages, on se retrouve samedi prochain pour un autre monde numérique lebdo version été, un peu allégé, un peu différent mais un peu plus long aussi, vous le voyez donc il y a du...
Monde Numérique :
[
55:20] Voilà, que vous soyez déjà en vacances, pas encore ou pas du tout Je vous souhaite une très bonne semaine, pleine de tech. Salut !