Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Barrières de confiance : pourquoi la prochaine décennie de milliards d'utilisateurs d'IA accédera via un réseau de confiance
作者:Sakina Arsiwala, chercheuse chez a16z ; source : a16z crypto ; traduction : Shaw 金色财经
YouTube的启示:内容是一种地缘政治武器
Il y a des années, j’étais responsable des produits de recherche internationale chez Google, puis j’ai dirigé l’expansion internationale de YouTube, lançant le produit dans 21 pays en seulement 14 mois. Ce que j’ai fait n’était pas simplement de la localisation de produit, mais de construire des relations de coopération de contenu local, cherchant des solutions dans un champ de mines de lois, de politiques et d’accès au marché. Récemment, j’ai également dirigé la gestion de la santé de la communauté de Twitch (confiance et sécurité). Au cours de ma carrière, j’ai également fondé deux startups.
Le domaine de l’intelligence artificielle (IA) aujourd’hui présente des similitudes frappantes avec les phases de croissance de Google et YouTube dans les années passées. Ma carrière m’a fait réaliser un fait : la mondialisation n’est pas une fonctionnalité produit, mais un jeu géopolitique. La leçon la plus profonde est que la promotion des canaux n’est jamais purement une question technique. La croissance dépend de partenaires locaux, de communicateurs culturels et de leaders d’opinion communautaires de confiance, qui construisent des ponts entre les plateformes mondiales et les utilisateurs locaux.
J’ai vécu l’incident de censure des droits d’auteur GEMA en Allemagne : une agence de droits musicaux a presque exclu tout un pays du programme de promotion paneuropéenne de YouTube. J’ai été témoin de l’affaire des mandats d’arrestation pour blasphème en Thaïlande : en tant que responsable externe de YouTube, j’ai risqué d’être arrêté en raison de contenus jugés insultants envers le roi de Thaïlande, rendant même impossible mon passage par ce pays. J’ai vu le Pakistan couper l’Internet national pour interdire une vidéo. Je me souviens aussi que, en raison d’un conflit entre l’algorithme mondial et les tabous religieux locaux, notre bureau en Inde a été attaqué.
Ce à quoi nous devons vraiment faire face n’est jamais seulement une question de politique ou d’infrastructure, mais de barrières de confiance.
Dans chaque marché, quelqu’un doit d’abord payer le coût de clarification des contenus qui sont sûrs, acceptables et précieux avant que les utilisateurs ne s’engagent. Ce coût s’accumule continuellement, formant au fil du temps une taxe de confiance : supportée par un petit groupe initialement, puis répartie entre tous.
Aujourd’hui, la même contradiction se reproduit dans le domaine de l’intelligence artificielle, mais la situation est plus grave, l’évolution plus rapide et l’impact plus évident. Le gouvernement fédéral américain et Anthropic sont récemment tombés dans une impasse, suscitant un vif débat public ; OpenAI fait face à un examen croissant en raison de ses relations avec le secteur public. Nous témoignons d’une transformation : l’acceptabilité des utilisateurs ne dépend plus uniquement de l’utilité, mais l’impact idéologique s’intensifie. Dans ce contexte, la confiance est très fragile, un effondrement de confiance apparemment minime peut entraîner une perte rapide et massive d’utilisateurs.
Google investit massivement dans sa stratégie de confiance profonde, utilisant la familiarité des utilisateurs avec les écosystèmes existants de Workspace et de recherche pour débloquer le marché, mais le paysage mondial devient de plus en plus divisé. Les lignes de réglementation strictes de l’UE, la compétition féroce en matière de développement de l’IA en Chine, et le nationalisme croissant en matière d’IA maintiennent le monde en état d’alerte élevé.
La leçon de 2026 est évidente : la confiance institutionnelle et la reconnaissance culturelle sont désormais indissociables du produit lui-même. Sans la confiance comme fondation, il est impossible de construire un système d’exploitation intelligent.
C’est cela la barrière de souveraineté - la frontière structurelle où l’IA mondiale et la gestion locale se heurtent. D’un point de vue produit, cela se manifeste sous une forme plus directe : la barrière de confiance.
Toute expansion des systèmes d’IA globaux finira par heurter ce mur. À ce point critique, l’acceptation par les utilisateurs ne dépend plus de la capacité technique, mais de la confiance que les utilisateurs, les institutions et les gouvernements ont en elle dans leur propre contexte.
Internet était autrefois sans frontières. L’intelligence artificielle ne le sera pas.
探索者时代的落幕
Les premiers milliards d’utilisateurs d’intelligence artificielle étaient des explorateurs et des optimistes technologiques. Mais l’époque des explorateurs est désormais révolue. Au cours des trois dernières années, nous avons vécu à une époque de génération de prompts et d’alchimie numérique, où les gens ouvrent des applications populaires comme ChatGPT et Claude, comme s’ils se rendaient dans un temple numérique, témoignant des miracles de l’intelligence générative. À cette époque, le seul indicateur important était la capacité du modèle : qui est en tête des derniers benchmarks ? Qui a le plus de paramètres ?
Mais en entrant en 2026, le feu de camp de l’époque des explorateurs s’éteint. Nous ne créons plus des jouets pour les curieux, mais nous nous tournons vers des systèmes d’exploitation intelligents - ces canaux sous-jacents invisibles et omniprésents qui alimentent le fonctionnement quotidien des entrepreneurs individuels à São Paulo, au Brésil, et des travailleurs de la santé communautaire à Jakarta, en Indonésie.
Ces utilisateurs ne sont pas des explorateurs, mais des demandeurs pratiques. Ils ne veulent pas dialoguer avec le “fantôme” dans la machine, ils veulent simplement un outil qui les aide à résoudre les obstacles de la vie réelle. C’est le véritable moment de franchir le fossé pour attirer le prochain milliard d’utilisateurs. C’est précisément à cette frontière encore inexploitée que le rêve mondial d’API chéri par la Silicon Valley se heurte à la réalité la plus dure de notre époque : la barrière de souveraineté.
Le changement fondamental est que : la diffusion de l’intelligence artificielle n’est plus principalement une question de capacité du modèle, mais de communication et de confiance. Les laboratoires de pointe continueront d’améliorer les performances des modèles, mais l’arrivée du prochain milliard d’utilisateurs ne sera pas due à un score plus élevé d’un modèle dans un test de référence, mais parce que l’IA les atteint par le biais d’institutions, de créateurs et de communautés en qui ils ont déjà confiance.
2026年现实:AI成为国家基础设施命题
En 2026, le défi central du secteur ne sera plus de rendre les modèles plus intelligents, mais de faire obtenir des autorisations d’accès aux modèles. La barrière de souveraineté est la frontière où l’intelligence générale rencontre l’identité nationale. À l’échelle mondiale, cette barrière commence à prendre forme : exigences de localisation des données, plans de puissance IA nationaux, et projets de modèles pilotés par des gouvernements en Inde, aux Émirats, en Europe, etc. Les politiques d’infrastructure cloud initiales évoluent rapidement vers des politiques de souveraineté intelligente. Dans ce cadre, les États refusent de devenir des “colonies de données”, exigeant que les systèmes intelligents servant leurs citoyens fonctionnent dans leurs propres entrepôts de données souverains, préservant la culture locale et respectant les frontières nationales.
Lorsque vous voyez les PDG de Google (Sundar Pichai), OpenAI (Sam Altman), Anthropic (Dario Amodei), DeepMind (Demis Hassabis), apparaître aux côtés du Premier ministre indien Modi lors du sommet d’influence de l’IA en Inde en 2026, vous assistez à la manifestation réelle de la barrière de souveraineté. La vision M.A.N.A.V. proposée par le Premier ministre Modi (système éthique et moral, gouvernance responsable, souveraineté nationale, IA inclusive, systèmes de confiance) envoie un signal clair : si les laboratoires de pointe tentent de cibler directement les consommateurs, ils seront finalement éliminés par la réglementation. Et la confiance est la seule monnaie d’échange pour franchir ces frontières.
网络效应减弱困境与为何它倒逼全新策略
Contrairement aux plateformes sociales où chaque nouvel utilisateur peut augmenter la valeur pour tous les autres utilisateurs, la valeur de l’intelligence artificielle est en grande partie localisée. Mon millième prompt que j’envoie ne rend pas directement le système plus précieux pour vous. Bien que le flywheel de données puisse optimiser le modèle, l’expérience utilisateur reste toujours personnalisée, et non socialisée. L’IA est un outil personnel, qui peut avoir une dimension émotionnelle, mais son cœur est un outil pratique.
Cela crée un problème structurel : l’IA ne peut pas s’appuyer sur l’effet de réseau de type composé qui a permis à la génération précédente de plateformes de prospérer. En l’absence de graphe social natif, l’industrie est condamnée à tomber dans un cycle de haute consommation, poursuivant sans relâche les premiers utilisateurs, les joueurs intensifs et les élites technologiques. Cette stratégie a fonctionné à l’époque des explorateurs, mais elle ne pourra pas toucher à l’échelle les prochains deux milliards d’utilisateurs.
Plus important encore, ce modèle échouera complètement face à la barrière de souveraineté. Car quand l’effet de réseau est faible, la confiance ne se forme pas spontanément, mais doit être introduite de l’extérieur.
转型:从网络效应转向信任效应
Si l’intelligence artificielle ne peut pas s’appuyer sur l’effet de réseau social pour sa diffusion, elle doit s’appuyer sur une autre force : le réseau de confiance. C’est un changement clé :
De l’acquisition d’utilisateurs à l’autonomisation des intermédiaires
YouTube a pu s’étendre à grande échelle en s’appuyant sur le réseau de confiance humain existant. L’IA doit en faire de même. Plutôt que d’essayer d’établir des relations directes avec des milliards d’utilisateurs, la stratégie gagnante devrait être :
D’autonomiser ceux qui ont déjà des relations avec les utilisateurs ;
D’utiliser la confiance qu’ils ont déjà accumulée ;
De distribuer les capacités intelligentes par ces canaux.
Pourquoi c’est crucial
Dans un monde façonné par la barrière de souveraineté :
Les canaux de distribution sont limités ;
Le modèle directement orienté vers les utilisateurs est fragile ;
La confiance est localisée, et non mondialisée.
Sans un fort effet de réseau, l’intelligence artificielle ne pourra pas se développer par la seule force brute, elle doit s’infiltrer par la confiance. L’intelligence artificielle n’a pas d’effet de réseau, elle possède un effet de confiance.
解决方案:中介时代来临
Comment YouTube a-t-il réussi à s’imposer sur le marché international ? Ce n’est pas en s’appuyant sur un meilleur lecteur, ni en localisant simplement le texte de l’interface. La clé du succès est devenue la plateforme de choix pour ceux qui ont déjà une confiance locale. Dans chaque marché, le point de départ de l’acceptation des utilisateurs n’est pas YouTube lui-même, mais le point d’ancrage d’identité - ces individus et communautés qui ont déjà le pouvoir culturel :
Les fans de Bollywood organisent des extraits rares de Shah Rukh Khan pour la communauté des expatriés à Dubaï
Les passionnés de la culture anime aux États-Unis construisent un écosystème de contenu approfondi non couvert par les médias traditionnels
Les comédiens locaux, enseignants et créateurs de mashup transforment le contenu mondial en une forme conforme à la cognition culturelle.
Ces créateurs ne se contentent pas de télécharger des vidéos, ils interprètent Internet pour leur public, agissant en tant qu’intermédiaires de confiance, construisant des ponts entre les plateformes étrangères et les utilisateurs locaux. Le succès de YouTube réside dans le fait qu’il est devenu l’infrastructure invisible qui soutient ces points d’ancrage d’identité.
被忽视的核心逻辑:直面消费者模式撞上主权壁垒
Aujourd’hui, la plupart des entreprises d’IA adoptent encore une pensée orientée vers les consommateurs : créer un meilleur modèle → le présenter via une interface de chat → acquérir directement des utilisateurs.
Ce modèle est efficace à court terme, mais difficile à maintenir sur le long terme. Car dans un marché à haute friction, les utilisateurs n’acceptent pas directement la nouvelle technologie, mais l’acceptent par l’intermédiaire de personnes de confiance.
L’expansion mondiale de YouTube ne s’est pas faite en persuadant individuellement des milliards d’utilisateurs, mais en autonomisant ceux qui ont déjà gagné la confiance de leur public. C’est cela la véritable signification de l’infrastructure invisible : vous ne possédez pas les relations avec les utilisateurs, vous soutenez les relations avec les utilisateurs. Et à l’échelle, ce modèle offre une barrière de protection plus forte.
De la discussion à l’agent intelligent : autonomiser les intermédiaires de confiance
C’est là que réside le passage crucial de l’interface de chat à l’agent intelligent. La discussion est un outil orienté vers l’individu, tandis que l’agent intelligent est un levier pour les intermédiaires. Si l’on applique la philosophie d’Anthropic du cadre d’Amir Wara - “créer des produits pour les plus épuisés”, alors dans de nombreux marchés, ces personnes sont des transformateurs de confiance :
Les éducateurs qui adaptent des concepts étrangers
Les entrepreneurs qui font face à des bureaucraties locales
Les leaders communautaires qui traitent la surcharge d’informations
La voie du succès est de résoudre le délai de confiance auquel ils sont confrontés - le fossé entre les capacités intelligentes mondiales et les scénarios pratiques locaux. Cela nécessite un système de soutien d’agents intelligents concret :
Pour les éducateurs : Sora / GPT-5.2 réécrit les cours - remplaçant les analogies de football américain par du cricket, tout en conservant le sens principal et en s’adaptant à la culture locale.
Pour les entrepreneurs individuels : l’agent intelligent peut non seulement interpréter des formulaires fiscaux de Singapour, mais aussi les remplir et les soumettre via une API locale.
Pour les leaders communautaires : ajouter une fonctionnalité de mémoire contextuelle à WhatsApp - extrayant des éléments d’action structurés à partir de dix mille messages, en conservant les informations utiles et en respectant les normes communautaires.
Le cœur de la faisabilité du modèle : résoudre le délai de confiance du dernier kilomètre
Pour comprendre pourquoi ce modèle peut se développer, il faut comprendre le délai de confiance. Dans de nombreuses régions du monde, le goulot d’étranglement n’est pas l’accès technologique, mais le temps, le risque et l’incertitude nécessaires pour établir la confiance. La diffusion de la technologie ne repose pas sur la publicité, mais sur des recommandations.
La plupart des entreprises d’IA commettent l’erreur de tenter de taper sur les taxes de confiance concentrées par le biais de la marque, de la distribution ou de l’affinage des produits, mais la confiance ne peut pas se développer de cette manière à grande échelle.
Le chemin le plus rapide est d’externaliser la taxe de confiance à ceux qui l’ont déjà supportée - des créateurs, éducateurs et opérateurs enracinés localement. Ils ont déjà expérimenté pour leur public, compris ce qui fonctionne, ce qui échoue et ce qui est vraiment important, et ont pris le risque pour le public.
En autonomisant ces intermédiaires de confiance :
Le coût d’acquisition des utilisateurs tend vers zéro : la distribution repose sur des réseaux de confiance existants ;
La valeur à vie des utilisateurs augmente : des fonctionnalités pratiques adaptées aux besoins locaux, plutôt qu’unification ;
La vitesse de diffusion s’accélère : la confiance est directement héritée, sans nécessiter une accumulation à partir de zéro.
Les entreprises bénéficieront ainsi d’une équipe de vente globalisée sans frais, dont la crédibilité, l’efficacité et la profondeur d’enracinement surpassent de loin toute stratégie de promotion centralisée. Vous ne créez plus de produits pour les utilisateurs, mais vous fournissez un levier pour ceux en qui les utilisateurs ont déjà confiance.
C’est précisément le chemin de l’expansion mondiale de YouTube, et c’est la seule manière dont l’intelligence artificielle peut franchir la barrière de souveraineté.
主权数据仓:地缘护城河
Le pessimisme technologique prôné par Marc Andreessen n’aboutit finalement pas à une lutte contre la réglementation, mais à la productisation de la réglementation. En compétition avec des entreprises comme DeepSeek en Chine et Kimi, la victoire ne viendra pas de l’ignorance des frontières, mais de la maîtrise des entrepôts de données.
Qu’est-ce qu’un entrepôt de données souverain ? C’est une instance de localisation prioritaire du modèle, fonctionnant au sein d’une infrastructure publique numérique (DPI) d’un pays.
Barrière géographique : en permettant à des pays comme l’Inde et le Brésil de posséder la souveraineté numérique sur les modèles, les poids et les données, nous renversons fondamentalement le paysage de contrôle. Les capacités intelligentes ne sont plus médiées par des plateformes étrangères, mais gouvernées de manière autonome au sein des frontières nationales. Cela ne bloque pas directement les concurrents externes, mais augmente considérablement le coût de leur influence, réduit la dépendance extérieure et diminue l’exposition aux risques de contrôle, d’extraction de données ou d’intervention unilatérale.
Points d’ancrage d’identité : lier profondément le modèle à la culture locale et aux réalités juridiques, construisant une barrière que l’intelligence générale ne peut pas franchir.
Boucle de rétroaction : résoudre des problèmes extrêmement localisés comme les permis fiscaux en Malaisie n’est pas une distraction, mais un accélérateur de modèle. Cela procure une flexibilité culturelle au modèle de base, lui permettant de maintenir un niveau d’intelligence de classe mondiale.
Il existe une réelle contradiction ici. La vision de l’intelligence artificielle est d’atteindre une intelligence générale, mais la tendance à la souveraineté pousse l’ensemble de l’écosystème vers la fragmentation. Si chaque pays construit sa propre pile technologique, nous serons confrontés à des systèmes incompatibles, des normes de sécurité disparates et des risques de construction de ressources redondantes. Le défi pour les laboratoires de pointe n’est pas seulement d’augmenter l’échelle de l’intelligence, mais de concevoir une architecture qui puisse réaliser une gestion locale sans affaiblir les avantages de collaboration mondiale.
中介时代的三大结构性转变
1. La distribution de l’intelligence artificielle intégrera les réseaux de confiance existants
L’intelligence artificielle ne se répandra pas par des applications indépendantes, mais s’intégrera dans des plateformes de communication instantanée, des flux de travail de créateurs, des systèmes éducatifs et des infrastructures de petites et moyennes entreprises - car la confiance y est déjà établie. En l’absence d’effets de réseau solides, la distribution doit s’appuyer sur des réseaux interpersonnels existants.
2. L’infrastructure IA de niveau national deviendra la norme
Les gouvernements de différents pays exigeront de plus en plus que les systèmes d’intelligence artificielle clés déploient des modèles localisés, construisent des capacités souveraines ou acceptent un examen réglementaire, ce qui accélérera la mise en œuvre des architectures d’entrepôts de données souverains.
3. L’économie des créateurs se transformera en économie d’agents intelligents
Les créateurs ne produiront plus seulement du contenu, ils déploieront des agents intelligents pour exécuter de vraies tâches pour leurs communautés. Ces agents deviendront des extensions d’individus de confiance, héritant de leur crédibilité et transmettant des capacités intelligentes par le biais de réseaux de confiance.
Bien sûr, il existe une autre possibilité d’avenir : un assistant occupant une position de domination absolue, profondément intégré dans les systèmes d’exploitation, les navigateurs et les appareils, établissant directement le lien entre les utilisateurs et les modèles, contournant complètement les intermédiaires. Si cela se réalise, le niveau de confiance serait directement intégré dans cet assistant.
Mais l’expérience historique pointe vers un paysage plus diversifié. Même les plateformes les plus dominantes - des systèmes d’exploitation mobiles aux réseaux sociaux - ont finalement prospéré grâce à leurs écosystèmes. L’intelligence peut être universelle, mais la confiance reste toujours localisée. Peu importe quel type d’architecture finira par l’emporter, le défi central ne changera pas : la diffusion de l’IA n’est plus principalement une question de modèle, mais de distribution et de confiance.
结论:利基市场才是真正的全球化市场
La plus grande erreur de l’époque des explorateurs est de croire que l’intelligence est un produit standardisé - un ensemble unique d’API mondiales qui fonctionne de manière identique dans une salle de conférence à Manhattan et dans un village du Karnataka. La barrière de souveraineté révèle une vérité plus dure : l’intelligence peut être universelle, mais sa diffusion ne l’est pas.
Les États et les institutions locales ne veulent pas d’un système externe en boîte noire, ils veulent le contrôle, la capacité d’adaptation des scénarios, et le droit de façonner l’intelligence au sein de leurs propres frontières. Ce qu’ils veulent, ce ne sont pas des applications prêtes à l’emploi, mais des canaux sous-jacents - c’est-à-dire une infrastructure, un système de sécurité et des capacités de calcul, permettant à leurs citoyens de construire de manière autonome.
La logique de croissance de 2026 ne consistera plus à chercher une expérience utilisateur universelle, mais à assurer la flexibilité des produits - permettant à l’intelligence de s’adapter aux scénarios locaux, à la réglementation et à la culture, tout en préservant les capacités essentielles. Si nous continuons à poursuivre directement les consommateurs mondiaux, nous ne serons qu’une couche externe - fragile, remplaçable, et nous subirons les chocs que j’ai vécus chez YouTube.
Mais lorsque nous nous tournons vers l’autonomisation des intermédiaires, le modèle changera radicalement : nous passerons de l’interface de chat à l’agent intelligent, de la persuasion des utilisateurs à l’autonomisation des intermédiaires de confiance, et du combat contre la réglementation à la transformation de la réglementation en barrière de protection.
La mise à l’échelle de l’intelligence artificielle ne repose pas sur le modèle, mais sur la confiance.
Le gagnant de la course à l’intelligence artificielle ne sera pas l’entreprise avec le modèle le plus intelligent, mais celle qui parvient le mieux à multiplier par dix les capacités des héros locaux - enseignants, comptables, leaders communautaires. Car finalement, l’intelligence se transmet dans les systèmes, tandis que la diffusion se produit parmi les gens.