a16z a récemment publié sa liste des « grandes idées » que les acteurs technologiques pourraient explorer en 2026, selon les associés des équipes Apps, American Dynamism, Bio, Crypto, Growth, Infra et Speedrun.
Vous trouverez ci-dessous une sélection de grandes idées proposées par différents membres de l’équipe crypto (ainsi que quelques contributeurs invités) sur les perspectives à venir — couvrant des sujets tels que les agents et l’IA ; les stablecoins, la tokenisation et la finance ; la confidentialité et la sécurité ; les marchés de prédiction et diverses autres applications. Pour découvrir tout ce qui nous enthousiasme pour 2026, consultez le article complet.

On constate que toutes les sociétés crypto performantes aujourd’hui, à l’exception des stablecoins et de certaines infrastructures fondamentales, ont opéré ou sont en train d’opérer un virage vers le trading. Mais si « chaque entreprise crypto devient une plateforme de trading », que reste-t-il pour le reste du secteur ? Cette concentration d’acteurs sur le même créneau réduit la part de marché de chacun et ne laisse que quelques grands gagnants. Ceux qui se sont trop rapidement tournés vers le trading ont ainsi manqué l’opportunité de bâtir une entreprise plus défendable et plus durable.
Je comprends la difficulté des fondateurs à équilibrer la viabilité financière de leur activité, mais la recherche de l’adéquation immédiate produit-marché a aussi un coût. Ce problème est particulièrement marqué dans la crypto, où la dynamique propre aux tokens et à la spéculation peut inciter les fondateurs à privilégier la gratification immédiate dans leur quête de l’adéquation produit-marché. C’est une forme de « test du marshmallow ».
Le trading reste une fonction essentielle du marché, mais il ne doit pas être considéré comme une finalité. Les fondateurs qui se concentrent sur l’aspect « produit » de l’adéquation produit-marché pourraient, à terme, être les principaux gagnants.
– Arianna Simpson, associée générale a16z crypto

Les banques, fintechs et gestionnaires d’actifs manifestent un vif intérêt pour l’intégration sur chaîne des actions américaines, des matières premières, des indices et d’autres actifs traditionnels. À mesure que ces actifs sont tokenisés, la démarche reste souvent skeuomorphique — ancrée dans la conception actuelle des actifs réels et sans tirer parti des fonctionnalités crypto-native.
Les représentations synthétiques comme les contrats perpétuels (perps) offrent cependant une liquidité plus profonde et sont souvent plus simples à mettre en œuvre. Les perps permettent également un effet de levier facile à comprendre, ce qui en fait probablement le dérivé crypto-native avec la meilleure adéquation produit-marché. Les actions des marchés émergents constituent aussi l’une des classes d’actifs les plus intéressantes à perpifier. (Le marché des options à zéro jour d’expiration, ou 0DTE, sur certaines actions, affiche souvent une liquidité supérieure à celle du marché au comptant, et serait un terrain d’expérimentation fascinant pour la perpification.)
La question centrale est celle de la « perpification vs. tokenisation » ; mais dans tous les cas, on devrait observer une tokenisation RWA plus crypto-native en 2026.
Dans la même logique, en 2026, on verra davantage « d’origination, et pas seulement de tokenisation » concernant les stablecoins, qui se sont généralisés en 2025 ; l’émission de stablecoins en circulation poursuit sa croissance.
Mais les stablecoins sans infrastructure de crédit solide ressemblent à des narrow banks, qui détiennent des actifs liquides considérés comme particulièrement sûrs. Si le narrow banking est un produit valide, il ne deviendra pas la colonne vertébrale de l’économie onchain sur le long terme.
On observe l’apparition de nouveaux gestionnaires d’actifs, curateurs et protocoles facilitant le prêt adossé à des actifs onchain contre des garanties offchain. Souvent, ces prêts sont initiés offchain puis tokenisés. La tokenisation n’apporte ici que peu d’avantages, hormis le fait de distribuer à des utilisateurs déjà présents onchain. C’est pourquoi les actifs de dette devraient être émis directement onchain, et non émis offchain puis tokenisés. L’émission onchain réduit les coûts de gestion des prêts, les coûts de structuration back office et augmente l’accessibilité. Le défi résidera dans la conformité et la standardisation, mais les acteurs travaillent déjà à résoudre ces enjeux.
– Guy Wuollet, associé général a16z crypto
La plupart des banques utilisent des logiciels totalement étrangers aux développeurs contemporains : dans les années 1960 et 1970, elles furent pionnières dans l’adoption de grands systèmes informatiques. La deuxième génération de logiciels bancaires centraux a débuté dans les années 1980 et 1990 (par exemple via GLOBUS de Temenos et Finacle d’InfoSys). Mais ces logiciels vieillissent et leur mise à jour est trop lente. Ainsi, le secteur bancaire — en particulier les registres centraux critiques, bases de données clés qui suivent les dépôts, garanties et autres engagements — fonctionne encore souvent sur des mainframes, programmés en COBOL et avec des interfaces par fichiers batch plutôt que par API.
La majorité des actifs mondiaux sont gérés sur ces mêmes registres centraux, qui datent aussi de plusieurs décennies. Si ces systèmes sont éprouvés, approuvés par les régulateurs et intégrés à des scénarios bancaires complexes, ils freinent aussi l’innovation. Ajouter des fonctionnalités comme les paiements en temps réel peut prendre des mois, voire des années, et nécessite de naviguer dans des couches de dette technique et de complexité réglementaire.
C’est là que les stablecoins interviennent. Les dernières années ont vu les stablecoins trouver leur adéquation produit-marché et se démocratiser, mais cette année, les institutions TradFi les ont adoptés à un tout autre niveau. Les stablecoins, dépôts tokenisés, bons du Trésor tokenisés et obligations onchain permettent aux banques, fintechs et institutions financières de créer de nouveaux produits et de servir de nouveaux clients. Plus important encore, cela s’effectue sans obliger ces organisations à réécrire leurs systèmes hérités — systèmes certes vieillissants, mais fiables depuis des décennies. Les stablecoins offrent donc une nouvelle voie d’innovation aux institutions.
– Sam Broner

En tant qu’économiste mathématicien, il était difficile d’amener les modèles d’IA grand public à comprendre mon processus de travail en janvier dernier ; mais en novembre, je pouvais donner aux modèles des instructions abstraites comme à un doctorant… et ils produisaient parfois des réponses inédites et correctement exécutées. Au-delà de mon expérience, on commence à voir les IA utilisées pour la recherche au sens large — notamment dans les domaines du raisonnement, où les modèles contribuent désormais directement à la découverte et résolvent de façon autonome des problèmes de Putnam (probablement l’examen universitaire de mathématiques le plus difficile au monde).
Il reste à voir quels domaines bénéficieront le plus de cette assistance à la recherche et comment. Mais je m’attends à ce que la recherche par IA favorise et récompense un nouveau style de recherche polymathe : celui qui privilégie la capacité à conjecturer des liens entre les idées et à extrapoler rapidement à partir de réponses elles-mêmes conjecturales. Ces réponses peuvent être inexactes, mais orientent malgré tout dans la bonne direction (du moins selon certaines topologies). Ironiquement, c’est un peu comme exploiter la puissance des hallucinations des modèles : quand ils deviennent « assez intelligents », leur laisser de l’espace pour explorer produit parfois des absurdités — mais peut aussi permettre des découvertes, tout comme la créativité humaine s’exprime hors des chemins linéaires et explicites.
Raisonner ainsi exigera un nouveau style de workflow IA — pas seulement agent à agent, mais plutôt agent enveloppant agent — où des couches de modèles aident le chercheur à évaluer les approches des modèles précédents et à synthétiser progressivement l’essentiel. J’utilise cette approche pour rédiger des articles, d’autres réalisent des recherches de brevets, inventent de nouvelles formes d’art, ou (malheureusement) découvrent de nouvelles attaques de smart contracts.
Cependant : exploiter des ensembles d’agents de raisonnement enveloppés pour la recherche nécessitera une meilleure interopérabilité entre les modèles, ainsi qu’une manière de reconnaître et rémunérer correctement la contribution de chaque modèle — deux défis auxquels la crypto peut apporter des solutions.
– Scott Kominers, équipe de recherche a16z crypto et professeur, Harvard Business School
L’essor des agents IA impose une taxe invisible au web ouvert, bouleversant ses fondations économiques. Ce bouleversement provient d’un décalage croissant entre les couches de contexte et d’exécution d’Internet : actuellement, les agents IA extraient des données de sites financés par la publicité (couche de contexte), offrant de la commodité aux utilisateurs tout en contournant systématiquement les sources de revenus (publicité, abonnements) qui financent le contenu.
Pour éviter l’érosion du web ouvert (et préserver la diversité des contenus qui alimente l’IA elle-même), il faut un déploiement massif de solutions techniques et économiques. Cela pourrait inclure des modèles comme le contenu sponsorisé de nouvelle génération, des systèmes de micro-attribution ou d’autres mécanismes de financement innovants. Les accords de licence IA existants s’avèrent également financièrement insuffisants, ne compensant souvent les fournisseurs de contenu qu’à hauteur d’une fraction des revenus perdus du fait de la cannibalisation du trafic par l’IA.
Le web a besoin d’un nouveau modèle techno-économique où la valeur circule automatiquement. La transition clé pour l’année à venir sera celle du passage d’une licence statique à une rémunération en temps réel basée sur l’usage. Il s’agira de tester et de déployer des systèmes — potentiellement reposant sur des nanopaiements via blockchain et des standards d’attribution sophistiqués — pour récompenser automatiquement chaque entité ayant contribué à la réussite d’une tâche d’agent.
– Liz Harkavy, équipe d’investissement a16z crypto

La confidentialité est la fonctionnalité essentielle pour permettre à la finance mondiale de migrer onchain. C’est aussi celle qui manque à presque toutes les blockchains existantes aujourd’hui. Pour la plupart des chaînes, la confidentialité n’a été qu’une réflexion secondaire.
Mais désormais, la confidentialité seule suffit à distinguer une chaîne des autres. Elle crée aussi un effet de verrouillage ; un effet de réseau propre à la confidentialité. Surtout dans un monde où la performance ne suffit plus à se démarquer.
Grâce aux protocoles de bridging, il est facile de passer d’une chaîne à l’autre tant que tout est public. Mais dès que l’on rend les données privées, cela change : transférer des tokens est simple, transférer des secrets est complexe. Il existe toujours un risque que des observateurs de la chaîne, du mempool ou du trafic réseau parviennent à identifier les utilisateurs lors du passage dans ou hors d’une zone privée. La traversée entre une chaîne privée et une chaîne publique — ou même entre deux chaînes privées — divulgue toutes sortes de métadonnées comme la temporalité et la taille des transactions, ce qui facilite le traçage.
Par rapport aux nombreuses nouvelles chaînes indifférenciées où la concurrence fera probablement chuter les frais à zéro (l’espace de blocs étant devenu fondamentalement identique partout), les blockchains axées sur la confidentialité peuvent bénéficier de réseaux bien plus puissants. En réalité, si une chaîne « généraliste » ne dispose pas déjà d’un écosystème dynamique, d’une application phare ou d’un avantage de distribution, il n’y a guère de raison pour qu’on l’utilise ou qu’on y développe — encore moins qu’on lui reste fidèle.
Sur les blockchains publiques, il est aisé pour les utilisateurs de transacter avec d’autres chaînes — peu importe celle qu’ils choisissent. Sur les blockchains privées, en revanche, le choix de la chaîne est bien plus déterminant car, une fois intégrés, les utilisateurs hésitent à migrer et à prendre le risque d’être exposés. Cela crée une dynamique où quelques acteurs dominent largement. Et puisque la confidentialité est indispensable à la plupart des usages réels, quelques chaînes axées sur la confidentialité pourraient détenir l’essentiel du marché crypto.
– Ali Yahya, associé général a16z crypto

Les marchés de prédiction sont déjà devenus courants, et l’an prochain, ils ne feront que s’étendre, se diversifier et gagner en intelligence à mesure qu’ils convergent avec la crypto et l’IA — tout en posant de nouveaux défis majeurs à résoudre pour les développeurs.
Tout d’abord, beaucoup plus de contrats seront listés. Cela signifie que nous pourrons accéder à des probabilités en temps réel non seulement pour les grandes élections ou événements géopolitiques, mais aussi pour toutes sortes d’issues complexes et imbriquées. À mesure que ces nouveaux contrats mettent en lumière davantage d’informations et s’intègrent à l’écosystème médiatique (c’est déjà le cas), ils soulèvent des questions sociétales importantes sur la valorisation de ces données et sur la manière d’améliorer leur conception pour plus de transparence, d’auditabilité, etc. — ce qui est possible grâce à la crypto.
Pour gérer ce volume accru de contrats, il faudra de nouveaux moyens de déterminer la vérité afin de les régler. La résolution centralisée via une plateforme (un événement donné s’est-il vraiment produit ? comment le confirmer ?) est importante, mais des cas litigieux comme le marché du costume de Zelensky ou le marché de l’élection vénézuélienne montrent les limites. Pour traiter ces cas et permettre aux marchés de prédiction de s’étendre à des applications plus utiles, de nouveaux modèles de gouvernance décentralisée et des oracles LLM peuvent aider à établir la vérité sur les résultats contestés.
L’IA ouvre d’autres perspectives au-delà des LLM pour les oracles. Par exemple, des agents IA actifs sur ces plateformes peuvent explorer le monde à la recherche de signaux permettant d’obtenir un avantage de trading à court terme, révélant ainsi de nouvelles façons d’analyser et de prévoir l’avenir. (Des projets comme Prophet Arena illustrent déjà l’engouement pour ce secteur.) Outre leur rôle d’analystes politiques sophistiqués pouvant être interrogés, ces agents pourraient également dévoiler de nouveaux éléments sur les facteurs prédictifs d’événements sociétaux complexes lorsque l’on examine leurs stratégies émergentes.
Les marchés de prédiction remplacent-ils les sondages ? Non ; ils améliorent les sondages (et les données issues des sondages peuvent être intégrées aux marchés de prédiction). En tant que politologue, ce qui m’enthousiasme le plus, c’est la façon dont les marchés de prédiction peuvent fonctionner en synergie avec un écosystème de sondages riche et dynamique — mais pour cela, il faudra s’appuyer sur des technologies comme l’IA, qui peut améliorer l’expérience des enquêtes ; et la crypto, qui peut offrir de nouveaux moyens de prouver que les répondants ne sont pas des bots mais des humains, entre autres.
– Andy Hall, conseiller recherche a16z crypto et professeur d’économie politique, Stanford University
Pendant des années, les SNARKs — preuves cryptographiques permettant de vérifier un calcul sans le réexécuter — sont restés cantonnés à la blockchain. Leur coût était simplement trop élevé : prouver un calcul pouvait demander 1 000 000 fois plus de travail que de l’exécuter. Cela valait le coup si l’on répartissait l’effort sur des milliers de validateurs, mais c’était impraticable ailleurs.
La donne est sur le point de changer. En 2026, les zkVM provers atteindront environ 10 000 fois de surcharge avec des empreintes mémoire de quelques centaines de mégaoctets — suffisamment rapides pour fonctionner sur des téléphones, assez abordables pour être déployés partout. Voici pourquoi 10 000x pourrait être un seuil clé : les GPU haut de gamme ont environ 10 000 fois plus de capacité de traitement parallèle qu’un CPU de laptop. D’ici fin 2026, un seul GPU pourra générer des preuves d’exécution CPU en temps réel.
Cela pourrait concrétiser une vision issue de vieux articles de recherche : le cloud computing vérifiable. Si vous exécutez des workloads CPU dans le cloud — parce que le calcul n’est pas assez lourd pour un GPU, par manque d’expertise ou pour des raisons héritées — vous pourrez obtenir des preuves cryptographiques de la validité des calculs à un coût raisonnable. Le prover est déjà optimisé pour les GPU ; votre code n’a pas besoin de l’être.
– Justin Thaler, équipe de recherche a16z crypto et professeur associé en informatique, Georgetown University





