Le 23 mars, Liu Liehong, directeur de l’Administration nationale du numérique, a dévoilé lors du Forum de haut niveau sur le développement de la Chine une série de données impressionnantes : le volume quotidien d’appels aux tokens AI en Chine est passé de 100 milliards au début de 2024 à 100 trillions fin 2025, et a dépassé 140 trillions en mars 2026, enregistrant une croissance de plus de mille fois en deux ans. Par ailleurs, les données de la plateforme d’agrégation d’API de modèles d’IA la plus grande au monde, OpenRouter, montrent que le volume hebdomadaire d’appels aux grands modèles chinois dépasse continuellement celui des États-Unis depuis plusieurs semaines, occupant ainsi les trois premières places mondiales. Une révolution industrielle pilotée par les tokens est en train de remodeler à une vitesse sans précédent la configuration de la compétition technologique mondiale, les modèles commerciaux, et même la compétitivité stratégique des nations.
Au début de 2026, plusieurs nouvelles importantes en provenance de la Silicon Valley ont également attiré l’attention de la communauté technologique mondiale. OpenAI abandonne progressivement, après près de 20 ans, l’indicateur clé de l’Internet, le DAU (utilisateurs actifs quotidiens), pour adopter le TPD (Tokens Par Jour, consommation quotidienne de tokens) comme indicateur principal de gestion. Ce changement n’est pas fortuit. Lors du GTC 2026, Jensen Huang, PDG de Nvidia, a redéfini le centre de données comme une « usine à tokens », soulignant que la compétition future se concentrera sur « le débit de tokens par watt ». Ce phénomène n’est pas isolé, mais marque l’arrivée d’un nouveau paradigme économique intelligent, où le token devient l’unité de mesure et d’échange centrale.
I. La valeur et la mesure des tokens AI
Du point de vue de l’informatique, un token est l’unité fondamentale par laquelle un modèle d’IA traite toute information. Lorsqu’un texte est saisi dans un modèle, il est décomposé en mots ou sous-mots ; une image en blocs de pixels ; un fichier audio en segments temporels. Ces unités indivisibles, appelées tokens, constituent la base de toute opération.
Dans la pratique, la mesure des tokens suit des règles précises. Pour un texte en anglais, un mot court peut compter pour un seul token, tandis qu’un mot long sera décomposé en plusieurs tokens. Une règle empirique simple est qu’un token correspond à environ 4 caractères anglais. Pour le chinois, un caractère chinois correspond généralement à 1 ou 2 tokens. Que ce soit lors du traitement des données en entraînement ou lors de l’utilisation du modèle en service, chaque action centrale de l’IA est mesurée en tokens. La consommation de tokens reflète directement la charge de travail du modèle et la valeur produite, conformément à la théorie de la valeur travail de Marx.
Ce qui distingue le token, c’est qu’il fournit une unité de mesure quantifiable et comparable pour le développement de l’économie intelligente. À mesure que la technologie IA évolue, passant du traitement textuel à la multimodalité, et que ses applications s’étendent vers la programmation, la vidéo, la recherche scientifique, le token s’impose comme une « unité de mesure unifiée » stratégique. Cette position n’est pas arbitraire, mais résulte de l’évolution industrielle : à l’ère industrielle, on utilisait le kilowattheure pour mesurer la consommation électrique ; à l’ère de l’Internet, le gigaoctet pour le flux de données ; à l’ère de l’IA, le token devient l’unité de mesure de la production intelligente. Sur le plan économique et commercial, le token est devenu l’unité de valeur centrale, mesurable, prixable et échangeable dans l’ère intelligente. Il relie l’énergie, la puissance de calcul, les données en bas, et les services intelligents en haut, servant de norme universelle pour mesurer la productivité de l’IA, calculer ses coûts, et effectuer la facturation des services IA.
La chaîne de valeur du token couvre cinq segments : fabrication hardware, infrastructure, fourniture de puissance de calcul, exploitation de plateformes, développement d’applications. Dans la composition des coûts, l’électricité et l’amortissement des équipements représentent 70 à 80 %, devenant ainsi le facteur clé de la compétitivité internationale du token. Le « token par watt » (Tokens par Watt) devient l’indicateur central de la compétitivité des entreprises IA. Cela signifie que, pour un budget électrique fixe, celui qui produit le plus de tokens avec la meilleure efficacité énergétique détient le coût de production le plus faible et la plus forte compétitivité sur le marché.
2. Facteurs influençant la mesure des tokens AI
Avec la diversification extrême des scénarios d’application, la méthode de mesure des tokens a évolué d’un comptage simple à un système complexe multidimensionnel, dynamique et pondéré.
(1) La différenciation entre entrée et sortie. La mesure de base reste la structure binaire « tokens d’entrée » et « tokens de sortie ». Les tokens d’entrée représentent l’information fournie par l’utilisateur (prompt, documents uploadés, historique de dialogue, etc.), tandis que les tokens de sortie sont le contenu généré par le modèle. En facturation commerciale, la génération consomme beaucoup de mémoire vidéo et de cycles de calcul, et le coût des tokens de sortie est généralement 3 à 5 fois supérieur à celui des tokens d’entrée. Cette différence de prix reflète la distinction fondamentale entre « travail créatif » et « lecture d’information » en termes de consommation de puissance de calcul.
(2) La mesure du contexte et le coût de la mémoire. Entre 2024 et 2025, la fenêtre de contexte (Context Window) des grands modèles a connu une avancée spectaculaire, passant de 8K, 32K à 128K, voire 1 million de tokens. En 2026, la gestion de contextes ultra-longs est devenue la norme. Cependant, traiter de longues séquences n’est pas gratuit. L’architecture Transformer, via le mécanisme d’attention, voit la complexité de calcul croître souvent au carré ou linéairement avec la longueur. Ainsi, un nouveau facteur de pondération, le « coefficient d’attention au contexte », a été introduit. Lorsqu’un utilisateur pose une question dans une session avec un contexte de 1 million de tokens, même si la réponse ne fait que 10 tokens, le système doit scanner ou rechercher dans une mémoire historique volumineuse, ce qui consomme implicitement des ressources, et cette consommation est comptabilisée dans le coût des « tokens de contexte actifs ». Cela permet une mesure plus précise du coût de maintien de la mémoire à long terme du modèle.
(3) La tokenisation multimodale. Avec la maturité des grands modèles multimodaux (LMM), images, vidéos et audio sont aussi intégrés dans la mesure des tokens. Une image haute résolution n’est plus considérée comme un simple fichier, mais découpée en centaines de « patches visuels » (Visual Patches), chacun encodé en un ou plusieurs tokens visuels. Une vidéo d’une minute peut se transformer en dizaines de milliers de tokens visuels temporels. Cette méthode unifiée brise les barrières entre modalités, permettant de comptabiliser dans un même cadre économique la description d’images, la compréhension vidéo, l’interaction vocale. Par exemple, générer une vidéo HD de 10 secondes consomme un nombre de tokens équivalent à la rédaction d’un article de mille mots, illustrant la densité d’information différente entre modalités.
(4) La dissimulation de la valeur du token. Avec la généralisation des agents intelligents (AI Agents), le modèle ne se limite plus à une réponse unique, mais réalise une planification autonome, exécute du code, réfléchit sur lui-même, effectue des recherches multi-tours. Ce processus génère une multitude de tokens de réflexion intermédiaires, qui ne sont pas directement visibles par l’utilisateur, mais constituent la base d’une sortie de haute qualité. La nouvelle norme de mesure distingue désormais « tokens de sortie apparents » et « tokens de raisonnement interne ». Pour des calculs scientifiques complexes ou des raisonnements élaborés, le nombre de tokens de raisonnement interne peut être plusieurs dizaines de fois supérieur à la sortie finale. Certains plateformes avancées expérimentent déjà une facturation différenciée selon le nombre d’étapes de raisonnement ou la profondeur de la chaîne de pensée, marquant une transition fondamentale de la mesure du simple comptage de mots à celle de l’intelligence.
II. Tendances de développement des tokens AI
Ces dernières années, le développement des tokens AI s’inscrit dans trois grandes tendances : explosion exponentielle du volume total, compression extrême par unité, stratification et consolidation de la valeur.
Tendance 1 : croissance explosive de la consommation. En 2024, la consommation mondiale quotidienne de tokens est d’environ 100 milliards. Fin 2025, ce chiffre atteint 180 trillions, soit une croissance de près de 1800 fois. Cette croissance n’est pas linéaire, mais résulte d’un changement qualitatif dans le paradigme d’application. La consommation initiale provenait principalement des dialogues homme-machine (chatbots), à faible fréquence et interaction superficielle. En 2026, l’application dominante devient l’agent autonome (Autonomous Agents). Lorsqu’un agent exécute une tâche, il décompose l’objectif, appelle des outils, écrit et débogue du code, vérifie les résultats, générant ainsi des dizaines de milliers voire centaines de milliers de tokens. À l’avenir, avec la concrétisation de l’IA incarnée (Embodied AI), la perception et la décision en temps réel des robots se traduiront en flux massif de tokens en continu, et la consommation quotidienne mondiale pourrait atteindre 10^16 tokens d’ici 2030.
Tendance 2 : baisse du coût par unité selon la loi de Moore. Grâce à l’itération des architectures matérielles (NVIDIA Blackwell, architectures Rubin), à l’optimisation des algorithmes (modèles experts hybrides MoE, quantification, échantillonnage spéculatif), et à l’amélioration de l’efficacité du scheduling en cluster, le coût de calcul pour générer un token de haute qualité en 2026 a diminué d’environ deux ordres de grandeur par rapport à 2023. Cet effet, appelé paradoxalement « paradoxe de Jensen », montre qu’une augmentation de l’efficacité ne réduit pas la consommation totale de ressources, mais stimule une demande sans précédent. À l’avenir, avec l’introduction de la photonique, des puces neuromorphes, et d’autres technologies disruptives, la consommation d’énergie par token pourrait encore baisser, rendant la « intelligence infinie » théoriquement possible.
Tendance 3 : stratification et spécialisation de la valeur. Le marché du token évoluera vers une claire « stratification de valeur ». Les tokens standards produits par des modèles généralistes seront aussi bon marché et homogènes que l’électricité, principalement utilisés pour des questions-réponses quotidiennes, des traductions basiques, des classifications simples. En revanche, les « tokens avancés » issus de fine-tuning spécifique à un domaine, enrichis par des données propriétaires, dotés de capacités de raisonnement profond, seront coûteux et rares. Par exemple, un token généré par un modèle médical de haut niveau pour un diagnostic aura une valeur bien supérieure à un token de conversation ordinaire. Cette stratification favorisera l’émergence de « marchés à terme de tokens » et de « systèmes de certification de qualité », où les utilisateurs paieront une prime pour des tokens de qualité supérieure (QoS).
II. Comparaison entre la Chine et les États-Unis dans l’industrie des tokens AI
Les États-Unis détiennent une avance stratégique dans l’IA principalement sur deux plans : la conception de puces et la capacité des modèles. Nvidia, leader mondial du marché GPU, voit sa capitalisation passer d’environ 300 milliards de dollars fin 2022 à plus de 4 000 milliards, soit une croissance de 14 fois. Cette croissance repose sur la domination continue dans la conception de puces avancées. Par ailleurs, des modèles fermés comme Claude ou GPT restent considérés comme les plus performants, avec des prix élevés dépassant 5 dollars par million de tokens. Ces prix reflètent la supériorité technologique américaine et leur pouvoir de fixation des prix sur le marché haut de gamme.
Cependant, cette position est confrontée à des défis structurels. D’une part, la congestion du réseau électrique limite l’expansion des capacités de calcul IA, avec des coûts énergétiques élevés. D’autre part, la voie des modèles denses entraîne une faible utilisation des ressources, rendant difficile une baisse rapide du coût de production par token.
À l’inverse, la Chine dispose d’avantages en termes de maîtrise des coûts et d’écosystèmes open source. Par exemple, le modèle DeepSeek chinois affiche un prix de 0,028 dollar par million de tokens, soit 1/180 de celui de GPT. Cette efficacité prix-performance attire des développeurs du monde entier : entre le 16 et le 22 février 2026, la consommation de tokens sur la plateforme OpenRouter pour les modèles chinois a atteint 5,16 trillions, en hausse de 127 % en trois semaines, tandis que celle des modèles américains n’était que de 2,7 trillions, en déclin continu. Sur les cinq principaux modèles mondiaux, quatre sont chinois, représentant 85,7 % du top 5. La consommation hebdomadaire de tokens chinois a dépassé celle des États-Unis pour la première fois en février 2026, et cette tendance s’est maintenue, avec des modèles comme MiniMax, DeepSeek, Kimi en tête. La part mondiale des tokens chinois a dépassé 60 % à certains moments.
Il est important de souligner que cette supériorité chinoise concerne principalement la consommation en inférence, pas en entraînement. La capacité d’inférence requiert peu de puissance par carte, et les puces nationales, optimisées en profondeur, suffisent pour supporter une demande massive. En revanche, l’entraînement nécessite encore quelques cartes haut de gamme, souvent en architecture distribuée ou avec MoE, pour produire de bons modèles. Cette structure indique que la Chine possède un avantage évident dans la mise en œuvre et la monétisation de l’IA, mais qu’elle doit encore rattraper dans l’innovation fondamentale des modèles.
Les coûts en Chine résultent d’une synergie de plusieurs dimensions. La plus fondamentale est l’énergie : le coût électrique représente plus de 30 % du coût total de production de tokens. Étant donné que l’entraînement et l’inférence IA sont très énergivores, la stabilité du réseau électrique et le coût de l’électricité (notamment l’électricité verte) déterminent la compétitivité du coût de production. Sur ce plan, le projet « East Data West Computing » et le réseau électrique unifié permettent de faire baisser le prix de l’électricité verte dans l’Ouest à environ 0,2 yuan par kWh (environ 0,028 dollar), contre 0,08 à 0,12 dollar en Europe et aux États-Unis.
Les coûts des puces incluent l’achat matériel, l’amortissement et la maintenance. La position dominante de Nvidia confère aux États-Unis un avantage dans l’approvisionnement en puces haut de gamme, mais à un coût plus élevé. La stratégie chinoise consiste à dépendre de peu de puces haut de gamme pour l’entraînement, tout en utilisant massivement des puces nationales pour l’inférence, en optimisant pour réduire au maximum le coût par unité de puissance. Au niveau de la chaîne complète, les fabricants chinois intègrent profondément modèles, cloud et puces, maximisant l’utilisation des ressources, tandis que les entreprises américaines dépendent souvent de cloud et de puces tiers, avec des coûts d’adaptation plus élevés.
L’efficacité en ingénierie est un facteur clé de différenciation des coûts. En technologie, les entreprises chinoises adoptent massivement l’architecture MoE (experts hybrides), qui divise un grand modèle en plusieurs « experts », en n’activant que ceux nécessaires à la tâche. Avec un investissement de 1000 dollars en puissance de calcul, la production de tokens peut varier de plus de 10 fois selon la méthode. L’architecture MoE, par rapport aux modèles denses, permet de multiplier par plusieurs fois la production de tokens par unité de calcul. L’optimisation en chaîne complète est également cruciale : lorsque fabricants de modèles, fournisseurs de cloud et concepteurs de puces collaborent étroitement, l’utilisation des ressources s’améliore bien au-delà des attentes.
La compétition mondiale en IA ne se limite plus à la performance des modèles, mais s’oriente vers l’efficacité de production de tokens et le coût par token. La Chine, grâce à une énergie stable et bon marché, à un marché unifié massif, et à une capacité d’ingénierie efficace, a construit un avantage considérable dans la production à grande échelle et à faible coût, devenant un « pôle de coûts » et une « usine à tokens » mondiale. Les États-Unis, eux, dominent par l’innovation technologique, l’écosystème haut de gamme et le capital financier, occupant les segments à haute valeur. La compétition fondamentale porte sur la maîtrise des prix de l’énergie, l’organisation industrielle, et l’influence de l’écosystème numérique. Bientôt, on pourrait voir la Chine transformer ses avantages énergétiques en un nouvel atout commercial international, en exportant un nouveau produit très compétitif : le token AI. Dans ce secteur en pleine croissance, la Chine affiche un excédent commercial avec tous les pays sauf les États-Unis, ce qui pourrait redéfinir la configuration économique et stratégique mondiale.
III. Le token AI deviendra-t-il une nouvelle monnaie mondiale ?
Pour qu’un token AI devienne une monnaie de circulation mondiale, il faut d’abord en comprendre la nature. Selon l’économie, une asset doit remplir trois fonctions fondamentales : unité de valeur, moyen d’échange, réserve de valeur. En plus, elle doit être largement acceptée, stable en valeur, et soutenue par la souveraineté. Sur ces critères, le token AI, dans un avenir proche, ne pourra pas devenir une véritable monnaie.
Le principal obstacle est la volatilité du prix. Au cours des deux dernières années, le prix d’un token a chuté de plus de 99 %. Une telle fluctuation rend impossible pour les commerçants d’accepter une « monnaie » susceptible de perdre la moitié de sa valeur en une semaine. Même si le prix se stabilise à l’avenir, la valeur du token restera fortement liée au coût de la puissance de calcul, lui-même influencé par l’évolution technologique des puces, les prix de l’énergie, et les tensions géopolitiques, rendant une stabilité à long terme difficile.
Un autre frein majeur est l’acceptation limitée. Aujourd’hui, le token AI n’est accepté que pour appeler des API ou utiliser des applications IA, et ne peut pas servir à acheter des biens ou services quotidiens. La monnaie, c’est l’équivalent général des biens et services dans la société, mais le réseau actuel du token se limite au domaine des services IA. Pour qu’il devienne une monnaie universelle, il faudrait bâtir un réseau mondial d’échanges de biens et services, ce qui nécessiterait d’importants investissements et une longue période de développement.
Plutôt que de devenir une monnaie, le token AI pourrait évoluer vers un nouvel actif de grande consommation, comparable au pétrole, à l’or ou au cuivre. Cette hypothèse repose sur plusieurs observations :
Premièrement, le token AI possède les caractéristiques essentielles d’un actif de grande consommation : standardisation, échangeabilité, demande large. Comme l’a souligné Jensen Huang, « à l’avenir, les centres de données deviendront des usines tournant 24h/24, produisant non plus des produits traditionnels, mais la marchandise la plus précieuse du monde numérique : le token ». Tout comme l’industrie a besoin de pétrole comme carburant, l’ère intelligente aura besoin de tokens comme « carburant intelligent ».
Deuxièmement, la fixation du prix du token s’oriente vers celle des matières premières. La tarification des API des modèles IA est déjà fortement marchée : en période de tension d’offre, les prix montent ; en période de faiblesse de la demande, ils baissent. Ce mécanisme de prix ressemble fortement à celui des matières premières traditionnelles. Avec la standardisation et la massification des échanges de tokens, un marché à terme de tokens, à l’image du pétrole ou de l’or, pourrait émerger, offrant aux producteurs, consommateurs et investisseurs des outils de gestion des risques.
Troisièmement, la structure de l’offre et de la demande du token présente des caractéristiques typiques des matières premières. L’offre est limitée par la capacité des puces, la disponibilité électrique, avec des cycles d’expansion longs et une faible flexibilité d’ajustement. La demande, quant à elle, croît rapidement avec la diffusion des applications IA, présentant une forte cyclicité. Cette structure explique que le prix du token fluctue par cycles, plutôt que de suivre une tendance linéaire à la baisse. La vague de hausse des tokens début 2026 en témoigne : malgré une tendance générale à la baisse, la déséquilibre entre offre et demande peut provoquer des pics de prix.
Enfin, le token pourrait devenir une réserve stratégique pour certains États. Avec l’intégration de l’IA dans la défense, la finance, l’énergie, la sécurité du calcul devient une question de souveraineté. Certains pays pourraient commencer à stocker stratégiquement des ressources de puissance de calcul, et le token, en tant qu’unité de mesure, deviendrait une référence pour évaluer ces réserves. Cela pourrait conduire à l’émergence d’un « standard basé sur la puissance de calcul » — un nouveau système de réserve où la puissance de calcul constitue la valeur de référence.
Dans l’impossibilité pour le token AI de devenir une monnaie, une tendance émergente est celle des stablecoins, qui deviennent une monnaie innovante pour l’économie des agents IA. Lorsqu’un agent IA doit prendre des décisions autonomes ou effectuer des transactions, le système financier traditionnel montre ses limites : pas de comptes bancaires pour l’IA, pas de cartes de crédit pour les algorithmes, pas de système de crédit adapté. Pour l’IA, l’argent n’est pas une richesse, mais une interface ; ce n’est pas une réserve de valeur, mais une voie d’exécution logique. Dans ce contexte, les stablecoins sur blockchain offrent des avantages uniques : transactions sans permission dans le monde entier, règlement instantané, faible coût de coopération, parfaitement adaptées aux besoins économiques des agents IA.
Les données montrent que l’utilisation des stablecoins dans l’économie des agents IA croît rapidement. En mars 2026, le nombre de transactions sur l’écosystème x402 a dépassé 163 millions, avec un volume total supérieur à 45 millions de dollars, et plus de 435 000 agents IA acheteurs, 90 000 agents vendeurs. Parmi eux, USDC domine la couche de transaction du protocole x402, représentant 98,6 % du volume sur la chaîne EVM, et 99,7 % sur la chaîne Solana.
III. Trois scénarios d’évolution futurs
En synthèse, l’avenir du token AI pourrait suivre trois trajectoires :
Premier scénario : Maintenir la fonction d’unité de mesure, sans devenir un actif indépendant. Le token reste une unité de facturation pour les services IA, sans valeur propre. Les utilisateurs achètent des capacités IA, pas le token lui-même ; ce dernier n’est qu’un moyen de facturation, pas un objet d’investissement. C’est la prédiction la plus conservatrice, correspondant à la situation actuelle.
Deuxième scénario : Évoluer vers un actif de grande consommation, avec un marché à terme de tokens. Avec l’augmentation de l’échange et la standardisation, le token pourrait devenir une matière première comme le pétrole ou le cuivre. Des bourses pourraient lancer des contrats à terme ou des options, offrant des outils de découverte des prix et de gestion des risques. Dans cette optique, la volatilité du prix du token s’intensifierait, mais sa dimension financière s’accroîtrait.
Troisième scénario : Servir de référence pour une nouvelle monnaie basée sur la puissance de calcul. C’est la voie la plus révolutionnaire : la puissance de calcul devient l’ancre de valeur de la monnaie, à l’image de l’or dans l’étalon-or. Dans ce système, la monnaie numérique souveraine (CBDC) serait indexée sur la puissance de calcul, chaque unité monétaire correspondant à une quantité standardisée de tokens. Bien que cette voie soit confrontée à d’énormes défis technologiques et institutionnels, sa réalisation bouleverserait totalement le système monétaire mondial.
IV. Stratégies face à l’ère du token AI
Face à l’essor de l’économie des tokens, les États doivent intégrer la puissance de calcul dans leur planification stratégique, anticiper la gouvernance de cette économie. Concrètement, ils peuvent agir sur plusieurs axes :
Construire un système d’infrastructures de puissance de calcul. S’inspirant du succès du projet « East Data West Computing », planifier un réseau national de puissance de calcul, optimiser la répartition des ressources. Cela inclut : déployer de grands centres de calcul dans l’Ouest, riche en énergie verte, pour réduire les coûts ; établir des nœuds de calcul en périphérie dans les zones à forte demande pour garantir une faible latence ; créer une plateforme nationale unifiée pour la gestion et la répartition flexible des ressources.
Uniformiser les standards de mesure des tokens. Actuellement, chaque plateforme utilise ses propres méthodes, ce qui complique le choix pour les développeurs, augmente les coûts pour les entreprises, et limite l’expansion du marché. Les autorités peuvent guider les associations professionnelles et les grandes entreprises pour élaborer des standards communs, définir des règles de conversion entre modalités (texte, image, audio), et établir un mécanisme transparent et équitable de calcul des coûts. Cela renforcera la compétitivité de la Chine dans l’économie mondiale des tokens.
Mettre en place un cadre de gouvernance de l’économie des tokens. La croissance rapide de cette économie soulève des questions : comment définir le statut juridique du token (unité de mesure, actif numérique, ou titre financier) ? Comment réguler les échanges transfrontaliers ? Comment prévenir la volatilité et les risques financiers ? Comment équilibrer la protection des utilisateurs et l’incitation à l’innovation ? La réponse à ces questions nécessite une collaboration étroite entre décideurs politiques, experts techniques, acteurs industriels et universitaires, pour bâtir une gouvernance adaptée aux caractéristiques de l’économie intelligente.
Participer à la définition des règles internationales. La gouvernance mondiale de l’IA est en train de se former. La Chine doit jouer un rôle actif dans l’élaboration des normes internationales pour la mesure des tokens, promouvoir des accords bilatéraux sur la coopération en puissance de calcul, et proposer des solutions fiscales pour le commerce transfrontalier de tokens, en défendant les intérêts des pays en développement. Maîtriser ces règles permettra de prendre une position dominante dans la future configuration globale.
2. Au niveau des entreprises : repenser l’efficacité des tokens et les modèles commerciaux
Pour les entreprises, la stratégie token n’est plus une simple question technique, mais un levier stratégique influant sur leur compétitivité et leur valeur. Face à cette vague, elles doivent :
Adopter une nouvelle culture de l’efficacité des tokens. Lors du choix des technologies IA, l’évaluation doit intégrer la mesure de l’efficacité en tokens, en veillant à l’adéquation entre puissance de calcul et consommation de tokens. Chaque étape, du design du prompt à l’optimisation des résultats, doit viser à réduire la consommation inutile, à maximiser l’utilisation des ressources. Par exemple, un prompt précis permet d’éviter le gaspillage de tokens ; une stratégie d’appel au modèle bien calibrée augmente le rendement. S’inspirant du concept de « good-put » en télécommunications, l’entreprise doit se concentrer sur « combien de tokens ont réellement permis d’atteindre l’objectif utilisateur », plutôt que sur la simple quantité de tokens traités. La transformation essentielle consiste à passer d’une logique de « consommation de calcul » à une logique de « création de valeur ».
Repenser les modèles économiques et la tarification. Le secteur des grands modèles est en transition : de la « subvention par le volume » à la « sélection par la valeur ». Les premières offres à prix très bas ont attiré des utilisateurs en phase d’expérimentation, mais ont aussi entraîné une faible efficacité dans l’utilisation des ressources — certains estiment que 40 % des appels gratuits ne concernent que des tests sans réelle application. En ajustant les prix, les entreprises peuvent filtrer les demandes non essentielles, tout en garantissant un service stable pour les clients prioritaires. Cette approche, qui consiste à « faire payer la valeur », marque une étape vers une tarification plus sophistiquée, comparable à celle du logiciel ou des services spécialisés.
Redéfinir les talents et les incitations. Jensen Huang a proposé lors du GTC 2026 d’attribuer aux ingénieurs un budget en tokens équivalent à la moitié de leur salaire annuel, pour attirer et retenir les talents. Il a même déclaré : « Si vous embauchez un ingénieur logiciel à 500 000 dollars par an, et qu’il ne consomme pas au moins 250 000 dollars en tokens, je m’inquiète. » Cela montre que la maîtrise de l’efficacité en tokens devient une compétence stratégique.
3. Au niveau individuel : développer la culture du token et de la collaboration homme-machine
Pour les individus, l’émergence de l’économie des tokens représente à la fois un défi et une opportunité. Face à cette transformation profonde de la productivité, il faut :
Construire une culture de la maîtrise des tokens. La majorité des utilisateurs ne comprennent pas bien la consommation de tokens, ni la capacité des modèles, ni la tarification. Cela entraîne des usages erronés : certains utilisent des agents intelligents pour trader, et se retrouvent avec des comptes vidés ; d’autres donnent des instructions à tous leurs agents IA pour qu’ils exécutent des API, ce qui peut faire « piéger » plusieurs agents. Ces exemples montrent que la compétence en tokens devient une compétence fondamentale de l’ère numérique.
Innover dans la collaboration homme-machine. Jensen Huang prévoit que, dans le futur, les ordinateurs fonctionneront 24h/24, générant en permanence des tokens, car les agents IA exécuteront des tâches sans relâche. Cela implique de changer la façon dont on travaille : passer de « faire soi-même » à « commander l’IA » ; de « simple exécutant » à « superviseur ». La capacité à diriger efficacement des agents IA devient une compétence clé.
Adopter une démarche d’apprentissage continu et d’itération des compétences. La rapidité du développement de l’économie des tokens réduit la durée de vie des compétences. Les modèles et techniques d’aujourd’hui seront rapidement dépassés par de nouvelles architectures plus performantes. La clé est de maintenir une capacité d’apprentissage permanente : suivre les évolutions technologiques, expérimenter de nouveaux outils, accumuler des expériences pratiques, et construire une connaissance interdisciplinaire pour comprendre les enjeux économiques et sociaux. Se préparer à cette révolution, c’est assurer sa pérennité dans l’économie du token.
Ainsi, la maîtrise du token, la refonte des modèles commerciaux, et le développement des compétences individuelles seront essentiels pour tirer parti de cette nouvelle ère de l’intelligence artificielle.