Au cours des derniers mois, en développant le système Agent, j'ai réalisé de plus en plus clairement une chose qui est gravement sous-estimée par tout le monde : peu importe à quel point les LLM deviennent puissants, ils ne peuvent pas réellement juger de manière fiable l'état du monde réel. Une fois que l'Agent entre dans le niveau d'exécution réel - ouverture de compte, transactions, accès aux sites Web, soumission de formulaires - il est exposé à une vulnérabilité extrême. Car il n'a pas de “couche réelle”. Ce qui nous manque, c'est l'Agent Oracle, cette couche qui est presque la pierre angulaire de tout l'écosystème Agent, mais qui a été négligée pendant longtemps.
Pourquoi les LLM ne suffisent-ils pas ? Parce que la capacité des LLM est essentiellement de générer le texte avec la probabilité optimale, et non de servir de système pour inférer la vérité du monde. Ils ne vérifient pas la véracité des nouvelles, ne reconnaissent pas les liens de phishing, ne jugent pas si une API est compromise, ne comprennent pas si une réglementation est réellement en vigueur, et ne peuvent pas saisir avec précision l'orientation réelle derrière le discours de Powell. Tout cela relève de la “vérification des faits (verification)”, et non de la “prédiction linguistique (prediction)”. Par conséquent, les LLM ne peuvent jamais devenir la “source de vérité” d'un Agent.
Les oracles traditionnels ne peuvent plus résoudre ce problème. Ils excellent dans la vérité des prix : ETH/USD, BTC/BNB, indices, devises, TVL en chaîne, ce type de données structurées, quantifiables et observables. Mais l'Agent est confronté à une réalité complètement différente : événements non structurés, conflits multihybrides, jugements sémantiques, changements en temps réel, frontières floues — c'est la vérité des événements, qui est un ordre de complexité supérieur à la vérité des prix. La vérité des événements ≠ la vérité des prix, les mécanismes des deux sont complètement différents.
Le marché de validation des événements proposé par Sora est actuellement la tentative la plus proche de la bonne direction. Le changement fondamental de Sora est que : la vérité n'est plus générée par le vote des nœuds, mais par des agents exécutant des tâches de validation réelles. Une requête passera par la collecte de données (TLS, Hash, IPFS), le filtrage des valeurs aberrantes (MAD), la validation sémantique LLM, l'agrégation de la réputation multi-agent, la mise à jour de la réputation et les sanctions de défi. L'insight clé de Sora est que Earn = Reputation : les revenus proviennent de la réputation, la réputation provient d'un travail réel à long terme, et non de stake ou d'auto-déclarations. Cette direction est très révolutionnaire, mais elle n'est pas encore assez ouverte : les experts en validation d'événements du monde réel sont extrêmement variés, allant de la finance, de la réglementation, de la santé, de la multilingue, aux audits de sécurité, à la détection de fraude, à la surveillance on-chain, à l'expérience sectorielle, aucune équipe unique ne peut construire un cluster d'agents couvrant tous les domaines.
Donc, ce dont nous avons besoin, c'est d'un “marché de la vérité” ouvert et impliquant plusieurs acteurs. Pourquoi ? Parce que la façon dont les humains obtiennent la vérité n'est pas en posant une question à un expert, mais en consultant plusieurs sources, en interrogeant plusieurs amis, en écoutant plusieurs KOL, puis en extrayant une compréhension stable des conflits. Le monde des agents doit également évoluer selon ce mécanisme.
La direction dans laquelle nous construisons est une combinaison d'ERC8004 et de x402. L'ERC8004 est responsable de l'établissement d'une couche de réputation programmable, enregistrant l'historique des performances, le nombre d'appels, les cas de succès, les enregistrements de défis, les domaines d'expertise, la stabilité, etc., de chaque Agent, permettant ainsi à la “carrière vérifiable (verifiable career)” de déterminer naturellement l'éligibilité des Agents. Quant à x402, il est responsable de la couche de paiement, grâce à laquelle nous pouvons rassembler dynamiquement plusieurs Agents de haute réputation lors d'une validation d'événement, leur permettant de valider en parallèle, de procéder à une vérification croisée et de regrouper les résultats en fonction de leur contribution. Il ne s'agit pas de trouver un expert, mais de convoquer un comité — c'est là le “comité de vérité” du monde machine.
Un marché de la vérité ouvert, multi-agents, pondéré par la réputation, incitatif par défis, et capable d'évoluer automatiquement, pourrait être la véritable forme de l'oracle du futur.
En attendant, Intuition construit une autre couche : la vérité sémantique sociale (Semantic Truth). Toutes les vérités ne peuvent pas être dérivées par la vérification des événements, par exemple : “un projet est-il digne de confiance ?”, “la qualité de la gouvernance est-elle bonne ?”, “la communauté aime-t-elle un certain produit ?”, “un développeur est-il fiable ?”, “un point de vue est-il reconnu par le mainstream ?”. Ce ne sont pas des réponses Oui/Non, mais plutôt un consensus social, qui est mieux exprimé par les triplets de TRUST (Atome — Prédicat — Objet) et qui accumule l'intensité du consensus par le soutien ou l'opposition au stake. Cela s'applique aux faits à long terme tels que la réputation, les préférences, le niveau de risque, les étiquettes, etc. Cependant, leur expérience produit actuelle est effectivement très mauvaise. Par exemple, pour créer “V God est le fondateur d'Ethereum”, tous les mots associés doivent avoir une identité dans le système, ce qui rend le processus très maladroit. Le point de douleur est clair, mais leur solution n'est pas encore à la hauteur.
Ainsi, la structure de la vérité future présentera deux couches complémentaires : la vérité des événements (Agent Oracle) responsable du monde en temps réel, et la vérité sémantique (TRUST) responsable du consensus à long terme, les deux formant ensemble la base de la vérité de l'IA.
La pile de réalité (Reality Stack) sera clairement divisée en trois couches : la couche de vérité des événements (Sora / ERC8004 + x402), la couche de vérité sémantique (TRUST), et enfin la couche de règlement (blockchain L1/L2). Cet ensemble de structures pourrait très bien devenir la véritable base de l'IA × Web3.
Pourquoi cela va-t-il changer tout Internet ? Parce qu'aujourd'hui, les agents ne peuvent pas vérifier la véracité, juger de la provenance, éviter les fraudes, prévenir la pollution des données, assumer des actions à haut risque, ou faire un cross-check comme un humain. Sans Agent Oracle, l'économie des agents ne peut pas exister ; mais avec lui, nous pouvons pour la première fois établir une couche de réalité vérifiable pour l'IA. Agent Oracle = la base réelle de l'IA.
Le futur d'Oracle ne sera pas un réseau de nœuds, mais sera composé de nombreux Agents spécialisés : ils accumulent des crédits par leurs revenus, participent à la vérification grâce à leur réputation, obtiennent de nouveaux travaux et défis par la vérification, collaborent automatiquement, se répartissent les tâches automatiquement, et évoluent d'eux-mêmes, s'étendant finalement à tous les domaines de connaissance. Ce sera un véritable marché de la vérité dans une société de machines.
La blockchain nous a donné un livre de comptes fiable, tandis que l'ère des Agents nécessite une réalité fiable, des événements fiables, une sémantique fiable, des jugements fiables et une exécution fiable. Sans Agent Oracle, l'IA ne peut pas agir en toute sécurité dans le monde; avec lui, nous pouvons établir pour la première fois une “couche de réalité” pour les machines. L'avenir appartient à ceux qui peuvent aider les machines à comprendre le monde réel.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Sans Agent Oracle, l'économie AI n'est qu'un château en Espagne.
Au cours des derniers mois, en développant le système Agent, j'ai réalisé de plus en plus clairement une chose qui est gravement sous-estimée par tout le monde : peu importe à quel point les LLM deviennent puissants, ils ne peuvent pas réellement juger de manière fiable l'état du monde réel. Une fois que l'Agent entre dans le niveau d'exécution réel - ouverture de compte, transactions, accès aux sites Web, soumission de formulaires - il est exposé à une vulnérabilité extrême. Car il n'a pas de “couche réelle”. Ce qui nous manque, c'est l'Agent Oracle, cette couche qui est presque la pierre angulaire de tout l'écosystème Agent, mais qui a été négligée pendant longtemps.
Pourquoi les LLM ne suffisent-ils pas ? Parce que la capacité des LLM est essentiellement de générer le texte avec la probabilité optimale, et non de servir de système pour inférer la vérité du monde. Ils ne vérifient pas la véracité des nouvelles, ne reconnaissent pas les liens de phishing, ne jugent pas si une API est compromise, ne comprennent pas si une réglementation est réellement en vigueur, et ne peuvent pas saisir avec précision l'orientation réelle derrière le discours de Powell. Tout cela relève de la “vérification des faits (verification)”, et non de la “prédiction linguistique (prediction)”. Par conséquent, les LLM ne peuvent jamais devenir la “source de vérité” d'un Agent.
Les oracles traditionnels ne peuvent plus résoudre ce problème. Ils excellent dans la vérité des prix : ETH/USD, BTC/BNB, indices, devises, TVL en chaîne, ce type de données structurées, quantifiables et observables. Mais l'Agent est confronté à une réalité complètement différente : événements non structurés, conflits multihybrides, jugements sémantiques, changements en temps réel, frontières floues — c'est la vérité des événements, qui est un ordre de complexité supérieur à la vérité des prix. La vérité des événements ≠ la vérité des prix, les mécanismes des deux sont complètement différents.
Le marché de validation des événements proposé par Sora est actuellement la tentative la plus proche de la bonne direction. Le changement fondamental de Sora est que : la vérité n'est plus générée par le vote des nœuds, mais par des agents exécutant des tâches de validation réelles. Une requête passera par la collecte de données (TLS, Hash, IPFS), le filtrage des valeurs aberrantes (MAD), la validation sémantique LLM, l'agrégation de la réputation multi-agent, la mise à jour de la réputation et les sanctions de défi. L'insight clé de Sora est que Earn = Reputation : les revenus proviennent de la réputation, la réputation provient d'un travail réel à long terme, et non de stake ou d'auto-déclarations. Cette direction est très révolutionnaire, mais elle n'est pas encore assez ouverte : les experts en validation d'événements du monde réel sont extrêmement variés, allant de la finance, de la réglementation, de la santé, de la multilingue, aux audits de sécurité, à la détection de fraude, à la surveillance on-chain, à l'expérience sectorielle, aucune équipe unique ne peut construire un cluster d'agents couvrant tous les domaines.
Donc, ce dont nous avons besoin, c'est d'un “marché de la vérité” ouvert et impliquant plusieurs acteurs. Pourquoi ? Parce que la façon dont les humains obtiennent la vérité n'est pas en posant une question à un expert, mais en consultant plusieurs sources, en interrogeant plusieurs amis, en écoutant plusieurs KOL, puis en extrayant une compréhension stable des conflits. Le monde des agents doit également évoluer selon ce mécanisme.
La direction dans laquelle nous construisons est une combinaison d'ERC8004 et de x402. L'ERC8004 est responsable de l'établissement d'une couche de réputation programmable, enregistrant l'historique des performances, le nombre d'appels, les cas de succès, les enregistrements de défis, les domaines d'expertise, la stabilité, etc., de chaque Agent, permettant ainsi à la “carrière vérifiable (verifiable career)” de déterminer naturellement l'éligibilité des Agents. Quant à x402, il est responsable de la couche de paiement, grâce à laquelle nous pouvons rassembler dynamiquement plusieurs Agents de haute réputation lors d'une validation d'événement, leur permettant de valider en parallèle, de procéder à une vérification croisée et de regrouper les résultats en fonction de leur contribution. Il ne s'agit pas de trouver un expert, mais de convoquer un comité — c'est là le “comité de vérité” du monde machine.
Un marché de la vérité ouvert, multi-agents, pondéré par la réputation, incitatif par défis, et capable d'évoluer automatiquement, pourrait être la véritable forme de l'oracle du futur.
En attendant, Intuition construit une autre couche : la vérité sémantique sociale (Semantic Truth). Toutes les vérités ne peuvent pas être dérivées par la vérification des événements, par exemple : “un projet est-il digne de confiance ?”, “la qualité de la gouvernance est-elle bonne ?”, “la communauté aime-t-elle un certain produit ?”, “un développeur est-il fiable ?”, “un point de vue est-il reconnu par le mainstream ?”. Ce ne sont pas des réponses Oui/Non, mais plutôt un consensus social, qui est mieux exprimé par les triplets de TRUST (Atome — Prédicat — Objet) et qui accumule l'intensité du consensus par le soutien ou l'opposition au stake. Cela s'applique aux faits à long terme tels que la réputation, les préférences, le niveau de risque, les étiquettes, etc. Cependant, leur expérience produit actuelle est effectivement très mauvaise. Par exemple, pour créer “V God est le fondateur d'Ethereum”, tous les mots associés doivent avoir une identité dans le système, ce qui rend le processus très maladroit. Le point de douleur est clair, mais leur solution n'est pas encore à la hauteur.
Ainsi, la structure de la vérité future présentera deux couches complémentaires : la vérité des événements (Agent Oracle) responsable du monde en temps réel, et la vérité sémantique (TRUST) responsable du consensus à long terme, les deux formant ensemble la base de la vérité de l'IA.
La pile de réalité (Reality Stack) sera clairement divisée en trois couches : la couche de vérité des événements (Sora / ERC8004 + x402), la couche de vérité sémantique (TRUST), et enfin la couche de règlement (blockchain L1/L2). Cet ensemble de structures pourrait très bien devenir la véritable base de l'IA × Web3.
Pourquoi cela va-t-il changer tout Internet ? Parce qu'aujourd'hui, les agents ne peuvent pas vérifier la véracité, juger de la provenance, éviter les fraudes, prévenir la pollution des données, assumer des actions à haut risque, ou faire un cross-check comme un humain. Sans Agent Oracle, l'économie des agents ne peut pas exister ; mais avec lui, nous pouvons pour la première fois établir une couche de réalité vérifiable pour l'IA. Agent Oracle = la base réelle de l'IA.
Le futur d'Oracle ne sera pas un réseau de nœuds, mais sera composé de nombreux Agents spécialisés : ils accumulent des crédits par leurs revenus, participent à la vérification grâce à leur réputation, obtiennent de nouveaux travaux et défis par la vérification, collaborent automatiquement, se répartissent les tâches automatiquement, et évoluent d'eux-mêmes, s'étendant finalement à tous les domaines de connaissance. Ce sera un véritable marché de la vérité dans une société de machines.
La blockchain nous a donné un livre de comptes fiable, tandis que l'ère des Agents nécessite une réalité fiable, des événements fiables, une sémantique fiable, des jugements fiables et une exécution fiable. Sans Agent Oracle, l'IA ne peut pas agir en toute sécurité dans le monde; avec lui, nous pouvons établir pour la première fois une “couche de réalité” pour les machines. L'avenir appartient à ceux qui peuvent aider les machines à comprendre le monde réel.