Chaque mois, dans Monde Numérique, Luc Julia, expert en intelligence artificielle, partage son analyse sans concession sur l'IA sous l'angle éthique et environnemental. Ce mois-ci, im revient sur l'annonce du projet Stargate et l'apparition de DeepSeek, cette IA chinoise qui pourrait rebattre les cartes du secteur.
Le projet Stargate annoncé récemment en fanfare par Donald Trump
C'est un projet gigantesque de data centers qui pose de nombreuses questions, notamment écologiques et financières. On parle d'un investissement de 500 milliards de dollars, mais en réalité, les fonds réels engagés ne dépasseraient pas 52 milliards. Elon Musk lui-même a réagi en affirmant qu'il n'y avait « pas les sous ». Ce projet va à contre-courant de ce que nous devrions viser : une IA plus frugale et durable.
Le projet chinois DeepSeek qui semble aller dans une autre direction
DeepSeek est une IA générative développée en Chine pour seulement 6 millions de dollars, un montant dérisoire comparé aux centaines de millions investis par OpenAI. Elle fonctionne avec une efficacité comparable aux modèles américains, mais à un coût bien moindre, notamment en énergie. Cependant, des interrogations subsistent : a-t-elle bénéficié de ressources d’État ? A-t-elle copié des modèles existants par une technique appelée « distillation » ? Les suspicions de plagiat sont fortes et pourraient poser des problèmes juridiques.
Cette avancée peut-elle rebattre les cartes en matière d'IA ?
Oui, car cela prouve qu’il est possible de développer des IA efficaces avec moins de ressources, sans dépendre des infrastructures massives que souhaitent construire OpenAI et consorts. C'est une bonne nouvelle pour l'environnement et pour l'avenir de l'IA. Selon moi, les modèles génériques gigantesques ont atteint leurs limites et les IA, telles qu’on les connait aujourd’hui, sont mortes. Cela coûte trop cher, consomme trop de ressources et produit trop d'erreurs. L'avenir est aux IA plus ciblées, avec des agents spécialisés capables de collaborer. Cette évolution permettrait une utilisation plus efficace, plus éthique et plus durable de l'intelligence artificielle.
Transcription :
Luc Julia :
[0:01] Moi, je suis persuadé que les IA génératives telles qu'elles sont aujourd'hui sont mortes. Ce n'est pas la peine de continuer dans cette course. Je pense que c'est possible qu'on utilise des trucs plus frugaux. Je pense que c'est vraiment possible.
Monde Numérique :
[0:20] Bonjour Luc-Julia.
Luc Julia :
[0:21] Bonjour Jérôme.
Monde Numérique :
[0:22] Ravi de t'accueillir dans Monde Numérique. Et donc, comme tu as accepté de le faire, on va se retrouver une fois par mois pour commenter l'actualité, notamment l'actualité de l'intelligence artificielle, car c'est ta spécialité.
Monde Numérique :
[0:36] Alors, on peut dire que l'année a quand même commencé sur les chapeaux de roue, avec la prise de fonction d'Elon Trump.
Luc Julia :
[0:45] Oui, c'est lui.
Monde Numérique :
[0:46] L'absence révélateur. Et puis, on parlera de Deep Seek aussi. Voilà, moi, j'aimerais avoir ton regard, ton coup d'œil. Tu vis entre la France et les États-Unis. Tu suis ça de très près. Et notamment, l'annonce du projet Stargate. Qu'est-ce que ça t'inspire, Luc ?
Luc Julia :
[1:00] Ça m'inspire une dérive qui est malheureusement celle que je craignais pour les IA génératives. Mais c'est une dérive qui n'a pas commencé aujourd'hui. En gros, pour parler du projet lui-même, c'est un projet de data center. Beaucoup de data center. On ne sait pas exactement comment ils vont être alimentés. On sait que ça va utiliser beaucoup de ressources, que ce soit de l'électricité. Ça va émettre beaucoup de CO2. Enfin, exactement ce qu'aime Trump, c'est le même truc que Dig Dig Dig, je ne sais plus ce qu'il a dit, pour aller chercher du pétrole et pour aller chercher tout ça. Donc, en gros, on va juste démultiplier ces choses-là qui vont utiliser beaucoup de ressources, non seulement potentiellement du pétrole pour créer de l'électricité, du charbon même peut-être, pourquoi pas, mais aussi de l'eau, ce qui est un de mes problèmes essentiels quand on parle de ces data centers. C'est une aberration, parce qu'il faudrait aller exactement dans notre direction. Qui est une direction de frugalité. Mais malheureusement, depuis un an, un an et demi à peu près, c'est la direction que OpenAI, pour les pas le citer, c'est dans cette direction qu'ils veulent aller, qu'ils doivent aller. Parce que pour eux, c'est plus, plus, plus. Ils veulent développer plus de trucs, plus gros, avec plus de données. Alors que c'est compliqué, parce que des données, il n'y en a plus beaucoup. Donc ça, c'est un des problèmes. Mais ils veulent développer ces gros data centers. Et je ne sais pas si tu te rappelles, il y a à peu près un an, il y a exactement un an en fait, au mois de février 2024.
Luc Julia :
[2:29] Il y avait Sam Altman qui se promenait un peu dans les médias pour raconter qu'il cherchait un trillion américains, donc un billion de dollars, qui est deux fois plus ce que demande Stargate. D'ailleurs, il ne disait pas un, il disait cinq. Il disait cinq billions. D'accord ? Donc, dix fois plus que Stargate veut avoir. Après, il faut prendre les chiffres, parce que ce qui est intéressant, c'est les chiffres. Alors on sait que Trump ment en permanence d'accord, bon ça c'est du classique mais là il nous annonce un truc à 500 milliards d'accord, donc il dit Stargate un projet à 500 milliards très bien, et après bon on s'aperçoit que ces 500 milliards c'est vraiment 100 milliards donc déjà c'est un peu moins d'accord, après on s'aperçoit que ces 100 milliards ils sont donnés entre guillemets financés par 4 boîtes Open AI, évidemment, pour 19 milliards. Après ça, il y a, comment s'appellent-ils nos amis japonais, là ? Softbank. Donc Softbank, 19 milliards.
Luc Julia :
[3:36] Oracle, 7 milliards. Et un fonds qui est, c'est pas Qatari, mais qui est du Middle East, quelque part, qui amène lui-même aussi à peu près 7 milliards. Si je sais compter sur mes doigts, ça fait 52 milliards. C'est encore la moitié des 100 milliards. D'accord ? Donc déjà, de toute De toute façon, les chiffres, ça ne va pas. Les chiffres ne s'alignent pas du tout. Et en plus de ça, si on regarde bien, les 19 milliards d'Open Airy, si on ne prend que ça, les 19 milliards d'Open Airy, ils viennent d'où ? Ça va être compliqué quand même. Ils ont levé en tout 20 milliards. L'année dernière, ils en ont perdu 5. Donc là, encore une fois, je compte sur mes doigts. Je n'ai pas 19. Et cette année, en 2025, ils comptent en perdre 14 milliards. Donc, ils sont obligés de lever de toute façon, ça c'est clair. Mais bon, ça veut dire quoi ? Ça veut dire que c'est du grand n'importe quoi. Il n'y a pas les sous. Et pour une fois, alors tu me connais, je ne suis pas le genre de gars qui est très d'accord en général avec Elon Musk.
Monde Numérique :
[4:32] Non, pas vraiment.
Luc Julia :
[4:33] Et pour une fois, Elon Musk a raison. D'accord ? Parce qu'il a dit la première chose qu'il a dit juste après l'annonce de Stargate. Et ça montre une petite distension avec Trump, déjà, là, il a dit le lendemain même, il a dit, les gars, c'est super, mais il n'y a pas les sous. En fait, il n'y a pas les financements. Donc, il y a un problème de financement, c'est sûr. Il y a un problème de ce que c'est. D'accord ? Donc, cette extension de ces data centers. Et puis, il y a des trucs rigolos aussi dans l'histoire. Bon, à part les sous, il y a l'histoire aussi de, ça va créer 100 000 emplois. D'accord ? 5 000 emplois américains. C'est ce qu'a dit Trump. En fait, comme je t'ai dit, ce n'est pas un projet nouveau, parce que c'est ce que voulaient lancer déjà OpenAI et Altman l'année dernière. Mais ils ont commencé les travaux, en fait, de ce truc-là. Et il y a le premier data center qui est en train d'être fait aujourd'hui au Texas. Et la presse locale du Texas annonce que le premier data center va créer 57 emplois. 57 emplois. Alors, tu compares aux 100 000, tu te dis, ça va faire non. Donc ils se sont tous un peu fourvoyés dans ce machin là sonne le président de Southbank lui il est à fond parce qu'il veut faire copain copain avec Trump, il n'a pas les sous non plus.
Luc Julia :
[5:53] Musk dit qu'il a 10 milliards en tout donc il dit qu'il va en mettre 19 après il dit qu'il va en mettre 50, il dit qu'il va en mettre 100 d'ailleurs, donc il y est d'accord donc il dit n'importe quoi enfin on est rentré dans un monde où c'est la fête de je sais pas quoi mais c'est du grand n'importe quoi, et donc ça m'inquiète énormément parce que du coup la bourse le lendemain ils étaient contents ils se sont réjouis, pas le seul lendemain,
Luc Julia :
[6:18] Par contre, parce que le lendemain, qu'est-ce qui s'est passé ?
Monde Numérique :
[6:21] DeepSeek.
Luc Julia :
[6:22] Alors, DeepSheet, comme je dis moi, mais bon, c'est parce que ça m'amuse. Mais DeepSeek, et donc DeepSeek, c'est quoi ? DeepSeek, c'est donc cette IA qui n'a rien coûté. 6 millions pour faire un truc qui est équivalent en performance à un OpenAI, aux dernières générations d'OpenAI, qui ont mis des centaines de millions pour le créer. D'accord ? Donc, le modèle est au moins aussi bon qu'OpenAI. Et même à l'inférence, il ne coûte rien. Parce qu'OpenA, aujourd'hui, l'abonnement est à 20 dollars par mois. L'abonnement de Deepsheet, c'est 50 cents par mois.
Monde Numérique :
[7:01] Donc l'inférence, c'est-à-dire l'utilisation du modèle.
Luc Julia :
[7:03] Voilà. Au moment où tu l'utilises, c'est 50 cents par mois. Ce qui est bon, donc extraordinaire. Après, il faut se calmer, il faut regarder tranquillement. Il faut se demander où est la vérité. Parce que ça vient de Chine, On sait toujours que c'est un peu compliqué, ce qui vient de Chine. Et donc, ici, il y a certainement du vrai dans le fait qu'ils n'ont pas dépensé beaucoup de sous. On ne sait pas si M. Xi a donné un peu d'argent. On ne sait pas exactement.
Monde Numérique :
[7:33] Donc, le gouvernement, tu veux dire ?
Luc Julia :
[7:36] Le gouvernement, M. le Président Xi. S'il a donné des sous ou pas. Donc, s'ils ont bénéficié des infrastructures chinoises et donc, du coup, qu'ils n'ont pas forcément payé. On ne sait pas si les 50 cents c'est du dumping, donc il y a plein de choses qui sont un peu bizarres et puis là maintenant aujourd'hui évidemment on commence à se demander si les modèles n'ont pas été un peu copiés, et voilà c'est ce que dit OpenAI qu'en.
Monde Numérique :
[8:01] Fait ça a été entraîné par ce qu'on appelle distillation et donc ça revient à une forme de plagiat c'est ça, qu'est-ce que c'est la distillation ?
Luc Julia :
[8:11] En gros la distillation tu prends un modèle existant, alors les modèles sont plus ou moins open source alors pas tous, les modèles d'OpenAI ne sont pas vraiment Open Source, donc c'est pour ça que c'est un peu bizarre que ce soit les modèles d'OpenAI mais ça peut être, quand tu as un modèle Open Source, tu peux le prendre et tu peux changer quand tu as l'Open Source, tu as non seulement les données et tu as les algorithmes, d'accord, donc tu sais comment le modèle est créé et tu sais avec quelles données ils sont créés, et donc tu peux toi rajouter tes propres données ou enlever des données pour pouvoir le changer un tout petit peu on appelle ça aussi du fine tuning d'accord, donc on raffine en quelque sorte le modèle, mais tu pars de quelque chose d'existants, c'est, Assez coûteux, parce que quand ça coûte des millions de dollars, c'est quand même assez coûteux, mais c'est beaucoup moins coûteux que de partir de zéro. Là, comme c'est un modèle qui n'est pas open source a priori, le distilling, c'est qu'on prendrait les réponses déjà toutes faites et on ferait répondre le système à plein de questions et on récupérerait les réponses pour créer le modèle. C'est-à-dire que tu le crées à partir tu l'utilises, tu le fais tourner et tu fais tourner et tu suces les données pendant que tu fais tourner c'est du pompage.
Luc Julia :
[9:24] Tu le fais marcher et tu le réenregistres c'est un enregistrement si tu veux en quelque sorte presque, mais tu crées le modèle pendant que tu enregistres mais est-ce que c'est illégal ça ? Oui, ça pue c'est exactement ce qui s'est passé dans les premières versions, de ces IA génératives, les premières relations des IA génératives, pomper Internet. Donc, si tu veux, c'était un peu la même idée, sauf que là, il fallait quand même créer le modèle. Là, maintenant qu'on connaît, on sait comment on crée des modèles, c'est beaucoup plus facile, en fait, à pomper. C'est-à-dire que quand tu regardes les open source, les open source t'expliquent comment tout ça est utilisé. Donc, c'est relativement facile entre aller chercher les données quelque part, les pomper, et puis après savoir comment tu fais, tu fais ce modèle. Et donc le chiffre de 6,5 millions ? A du sens. Si tu veux, dans ces cas-là, si c'est du pompage pur, si ça a du sens, ça serait possible.
Luc Julia :
[10:22] Les gens de méta, donc ça, c'est les gens d'Open Air et qui disent ça aujourd'hui. La vérité, c'est qu'on n'en sait quand même à peu près rien. Donc, il faut un peu attendre quelques jours, au moins, pour avoir ces réponses, parce que les gens de méta disent la même chose. Et eux, ça serait un peu plus sensé, en fait, parce que méta est vraiment, enfin, c'est de l'open source à la à la Zuckerberg, c'est pas du vrai open source, mais c'est quand même un peu plus open source, et donc ça serait beaucoup plus facile de couper les trucs de méta, d'accord ? Ça serait pas la peine de faire cette espèce d'enregistrement, tu vois, un peu comme on faisait c'est comme si tu faisais, que tu prenais avec un caméscope dans un cinéma le film, tu vois, comme il y avait beaucoup à un moment donné des DVD qui étaient piratés comme ça, tu vois, bon c'était dégueulasse mais c'est comme ça, donc ça, ça serait le truc qu'ils auraient fait avec OpenAI le truc qu'ils auraient fait avec méta, ça serait beaucoup plus joli, ça serait de cassette à cassette, tu vois, et tu copies, et c'est joli. Donc, ça serait plus sensé, mais bon, en gros, là, les gens commencent à dire quand même que, en gros, c'est pompé, quoi. Parce que ce qu'on disait d'une manière assez unanime dans les derniers mois, c'est que les Chinois avaient à peu près un an, deux ans de retard sur les IA génératives américaines. de la côte ouest. Donc là, ça serait quand même un gap qui est franchi vachement rapidement.
Monde Numérique :
[11:49] Ils rattrapent leur retard avec cette manipulaire.
Luc Julia :
[11:51] Oui, ils rattraperaient leur retard, mais le truc qui est intéressant, surtout avec DeepShit, c'est que ça serait entraîné sur des puces qui seraient d'une génération précédente, et même peut-être pas des GPUs. Alors, ça veut dire quoi ? Ça veut dire que, évidemment, c'est pour ça que NVIDIA, le jour même, enfin le lendemain, a perdu 17% de sa valeur en bourse. 17%, un milliard, c'est quand même pas mal. Plusieurs milliards, d'ailleurs, pas un milliard, mais plusieurs milliards de dollars. Donc, il y a définitivement quelque chose qui est bizarre.
Monde Numérique :
[12:26] Luc, est-ce que tu penses que c'est quand même de nature à rebattre l'écart en matière d'IA ?
Luc Julia :
[12:30] Pour moi, la bonne nouvelle, c'est que si vraiment il y a quelque chose qui a été fait, qui utilisent moins de ressources, d'accord ? Donc, pas forcément des GPU de dernière génération, mais qu'on utilise des CPU et des choses donc moins fortes. Ben, ça va dans le sens où je crois que ça devrait aller, dans le sens de la frugalité. Et donc, en même temps, ça met un grand coup dans la gueule à Stargate.
Monde Numérique :
[12:50] Oui.
Luc Julia :
[12:50] D'accord ? Parce que c'est exactement le truc contraire. Et donc, ça, bon, ça, ça me fait plaisir. Je pense que c'est possible qu'on utilise des trucs plus frugaux. Je pense que c'est vraiment possible. Donc, ça, ça a définitivement une opportunité de rebattre les cartes parce que ça va permettre aux gens de réaliser que ce n'est pas la peine de faire un Stargate, que ce n'est pas la peine de continuer dans cette course.
Luc Julia :
[13:12] Je ne sais pas si tu m'as entendu parler des IA génératives dans la dernière année, mais moi, je suis persuadé que les IA génératives telles qu'elles sont aujourd'hui sont mortes. C'est terminé. On les a exploitées au maximum. On a fait des modèles avec beaucoup, beaucoup de données et on s'est aperçu que finalement, quand c'est des modèles qui sont trop génériques, il y avait quand même beaucoup d'erreurs, il y avait des hallucinations, il y avait tout ça, donc c'est des modèles qui ne sont pas vraiment, c'est rigolo, mais ce n'est pas vraiment exploitable, en générique, en général. Par contre, on a trouvé des solutions, on a trouvé des use cases pour les exploiter dans des domaines particuliers et c'est ce qu'on a vu après avoir fait plein de POC, plein de proof concepts partout dans tous les sens, on a trouvé des cas d'usage mais en fait on s'est aperçu que ce n'était pas la peine d'avoir le gros machin et qu'on pouvait faire soit du fine tuning dont on parlait tout à l'heure, soit ce qui s'appelle du RAG, qui sont en fait des diminutions de ces modèles et qui sont maintenant utilisables dans ces domaines particuliers.
Luc Julia :
[14:08] Et ça, pour moi, c'est ça l'avenir. Et quand on parle d'IA agentique, par exemple, qui est censée être la prochaine génération de ces IA génératives, l'IA agentique, ce n'est pas autre chose que des, agents qui vont être spécialisés dans des domaines particuliers et qui vont collaborer, mais qui vont être spécialisés. Et donc, du coup, c'est pour moi exactement la marche normale de ces IA elles vont devenir donc plus, spécialisée, donc plus frugale et donc plus intéressante aussi et plus intéressante et plus éthique à être utilisée. Parce que l'éthique de ces grosses IA qui font tout et n'importe quoi et surtout n'importe quoi des fois, c'est pas viable, c'est juste pas viable. Aujourd'hui, on n'aurait pas assez, c'est pour ça qu'ils veulent construire, ces Stargate, on n'aurait pas assez de capacité de calcul et d'électricité pour avoir autant de requêtes Chagipity que de requêtes Google. C'est juste pas possible.
Luc Julia :
[15:08] Donc c'est embêtant. Et puis en plus, je te parlais de l'eau tout à l'heure, moi ça m'inquiète beaucoup, parce que dans ces data centers qui sont énormes avec plein de machines qui se chauffent les unes les autres, on refroidit avec beaucoup d'eau, et l'eau s'évapore, en fait, elle est perdue. Et ça, si tu veux, Altman s'est tiré une balle dans le pied il y a un mois à peu près. Il a lui-même dit qu'une requête de Chagipiti O3, les dernières versions, c'était l'équivalent il a dit 3 roquettes équivalent à 1,5 litre d'eau perdu, 1,5 litre d'eau c'est une aberration on avait calculé des trucs un peu différents on avait calculé que 20 roquettes c'était à peu près 1,5 litre d'eau que ce soit 3 ou 20 c'est pas grave c'est trop, donc il faut arrêter cette course là et donc un truc comme DeepSync ça permet, de penser que c'est possible. D'accord ? Et juste pour ça, c'est bien.
Monde Numérique :
[16:08] Merci, Luc, Julia. Et je te dis au mois prochain.
Luc Julia :
[16:12] Avec plaisir. On trouvera certainement quelque chose d'autre.