Jensen Huang veut que vous sachiez que l’industrie de l’IA n’est pas une bulle—malgré son apparence. Lors du Forum économique mondial à Davos cette semaine, le PDG de Nvidia a dit à Larry Fink de BlackRock que l’infrastructure alimentant l’intelligence artificielle nécessite “encore des trillions de dollars” d’investissements dans les années à venir. L’alternative ? Un échec ultime. Huang a présenté l’IA comme un “gâteau à cinq couches” qui commence par l’énergie en bas, puis les puces, l’infrastructure cloud, les modèles d’IA, et enfin les applications en haut. Chaque couche, a-t-il expliqué, nécessite une construction massive avant que celles du dessus puissent fonctionner correctement.
“Nous en sommes maintenant à quelques centaines de milliards de dollars,” a déclaré Huang. “Il y a des trillions de dollars d’infrastructure à construire.” Selon Gartner, l’industrie a consacré environ 1,5 trillion de dollars au développement de l’IA en 2025 seulement—plus que tout groupe d’entreprises n’a dépensé pour pratiquement n’importe quoi en termes nominaux. Huang insiste cependant sur le fait que ce n’est pas un excès. C’est la plus grande expansion d’infrastructure de l’histoire humaine, a-t-il dit, et ce n’est que le début. Pour référence, cette dépense représente à peu près la capitalisation boursière de tout le Bitcoin dans le monde. Pour une comparaison plus “normie”, grâce à la ruée vers l’IA, Nvidia est maintenant presque aussi précieuse que tout l’argent qui a été extrait en argent jusqu’à présent.
Alimenter la bulle, battre la bulle ? Les paroles de Huang ont beaucoup d’intérêts derrière elles. Fin janvier 2025, la startup chinoise DeepSeek a secoué les marchés avec un chatbot étonnamment performant, provoquant une chute de 17 % en une seule journée des actions Nvidia. L’entreprise s’est redressée, mais cette secousse a intensifié les avertissements de figures comme Jamie Dimon de JPMorgan, qui a dit que l’IA est “réelle” mais a mis en garde que “certaines dépenses maintenant seront gaspillées.” Une étude du MIT a révélé que malgré 30 à 40 milliards de dollars d’investissement en entreprise, 95 % des organisations ne voient aucun retour sur l’IA générative.
La nature cyclique du financement de l’IA a également été scrutée. Nvidia a récemment engagé $100 milliard de dollars pour OpenAI, qui utilise ensuite ce capital pour acheter des puces Nvidia. Des arrangements similaires relient Microsoft, CoreWeave, et d’autres acteurs majeurs dans ce que les critiques appellent une boucle fermée qui gonfle artificiellement la demande. Les entreprises commencent déjà à se couvrir contre la domination de Nvidia. OpenAI a signé un contrat de $10 milliard de dollars avec Cerebras, une startup de puces IA promettant des vitesses d’inférence jusqu’à 15 fois plus rapides que les systèmes basés sur GPU. La société a également conclu des partenariats avec AMD et Broadcom, et a engagé $38 milliard de dollars avec Amazon Web Services. Pendant ce temps, Google pousse ses unités de traitement tensoriel personnalisées comme alternative, avec Anthropic qui accepte d’utiliser jusqu’à un million de puces TPU. Même Meta explore apparemment le silicium de Google pour ses centres de données. Le message de Huang à Davos était clair : le monde a besoin de plus d’énergie, de plus de terres, de plus de puces, et de plus de centres de données pour alimenter la révolution de l’IA. Fink semblait d’accord, en demandant si les dépenses actuelles sont réellement suffisantes pour élargir l’économie mondiale. La réponse de Huang était essentiellement non. L’opportunité, a-t-il dit, est “vraiment assez extraordinaire.” Que cette opportunité se concrétise ou s’effondre sous son propre poids reste la question à un million de dollars—ou plutôt, à un trillion de dollars.