Alors que l'on célèbre les deux ans de ChatGPT, gros plan sur le microprocesseur H100 de Nvidia, devenu incontournable dans l'écosystème technologique de l'IA.
C’est l’une des puces les plus puissantes (et les plus chères) du monde et elle s’arrache comme des petits pains
Carte informatique contenant un processeur H100 (image Nvidia)
C’est l’histoire d’une puce qui est en train de changer le monde. Conçu pour répondre aux exigences de l'intelligence artificielle, le H100, avec sa finesse de gravure de 4 nanomètres et ses 80 milliards de transistors, est capable de réaliser 4 pétaflops, soit des millions de milliards d'opérations à la seconde. De quoi faire tourner les gourmands modèles IA et les simulations scientifiques les plus exigeantes. La demande mondiale pour ce processeur est massive, avec des acquisitions par des géants de la tech atteignant des chiffres astronomiques, ce qui provoque des tensions sur les chaînes d'approvisionnement et des délais de livraison pouvant aller jusqu'à 52 semaines. Malheureusement, la consommation énergétique du H100, qui nécessite entre 350 et 700 watts, pèse sur l'environnement. Les nouvelles générations de processeurs, comme le H200 et le Blackwell, promettent un meilleur rendement énergétique pour encore plus de puissance.
Transcription :
[0:01] Alors que l'on fête les deux ans de ChatGPT, je voudrais vous parler aujourd'hui d'un microprocesseur. Alors dit comme ça, ça ne paraît pas très sexy. Mais pourtant, ce microprocesseur est aujourd'hui au cœur de l'une des plus grandes batailles de la tech, la bataille de l'intelligence artificielle. Ce processeur, cette puce, c'est le H100 de la firme américaine Nvidia.
[0:22] Le H100 est issu d'une famille de processeurs initialement dédiés à l'accélération graphique des ordinateurs, c'est-à-dire notamment pour le jeu vidéo et la création d'images de synthèse. Mais il y a quelques années, on s'est aperçu que ce type de composant était l'outil idéal pour effectuer les millions d'opérations à la seconde que nécessitent les grands modèles d'intelligence artificielle. Lancé en 2022, le H100 est donc un monstre de puissance informatique dédié à l'IA. Il est fabriqué dans les usines du Taïwanais TSMC. Il a une finesse de gravure de 4 nanomètres, ce qui lui permet d'intégrer pas moins de 80 milliards de transistors. Avec ses 80 gigas de mémoire ultra rapide et une bande passante de 3 téraoctets par seconde, le H100 peut effectuer jusqu'à, tenez-vous bien, 4 millions de milliards d'opérations par seconde, soit 4 pétaflops. Cette capacité est essentielle pour entraîner des modèles dits à complexe comme GPT et aussi pour effectuer des simulations scientifiques de grande envergure. Si l'on compare le H100 à un processeur graphique grand public, comme par exemple celui de la carte GeForce RTX 4090 du même constructeur Nvidia, dont la puissance est déjà impressionnante, la différence est abyssale.
[1:39] Là où un processeur classique gère quelques tâches complexes simultanément, le H100, lui, peut gérer des milliers de processus en parallèle. Du coup, c'est devenu l'un des piliers technologiques que l'on trouve aujourd'hui dans tous les centres de données spécialisés en intelligence artificielle. Et il s'arrache comme des petits pains. Les géants de la tech achètent des H100 par palette entière. En 2023, Google, Amazon ou Oracle en ont acquis chacun 50 000 unités.
[2:09] Microsoft en a acheté 150 000. Et à la fin de cette année, Meta en aura acheté 350 000 pour un montant de 9 milliards de dollars. Elon Musk, qui est en train de construire l'un des plus gros centres de calcul du monde dédié à l'IA, baptisé Colossus dans le Tennessee, veut acheter 200 000 H100 dans les prochains mois, ce qui d'ailleurs commence à donner des sueurs froides à Nvidia. Nvidia en produit environ entre 1,5 millions et 2 millions d'unités par an et a du mal à répondre à la demande. Une demande si élevée que les délais de livraison peuvent atteindre aujourd'hui jusqu'à 52 semaines. Alors sachant que chaque unité, chaque H100 coûte 30 à 40 000 dollars, suivant les versions, je vous laisse faire le calcul et vous comprendrez pourquoi Nvidia est aujourd'hui devenue l'une des entreprises de tech les plus riches du monde, les plus florissantes, et son PDG, Jensen Huang, l'un des patrons de la Silicon Valley, qui a le plus le sourire. Alors malheureusement, le H100
[3:07] est un goinfre énergétique. Il affiche une puissance de 350 à 700 watts. C'est l'équivalent d'une plaque de cuisson électrique à la maison.
[3:16] Imaginez ce que ça donne, multiplié par des milliers dans les data centers. Mais heureusement, la relève est déjà là. Son petit frère, le H200, est plus frugal. Il est pour l'instant moins répandu.
[3:28] Son successeur, le Blackwell, sera encore plus performant et moins énergivore. Mais pour l'instant, il est plus difficile à produire. Le H100 est donc le maillon technologique qui est en train de façonner notre futur. Et c'est fascinant. Salut, à demain.