Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les « mensonges » d'OpenAI : un exemple classique d'échec systémique
Rédigé par : Centre de recherche Web 4
Le plus grand problème philosophique n’est pas « Peut-on faire confiance à quelqu’un ? », mais « Comment concevoir un système rendant la confiance superflue ? ». Sinon, nous utilisons une architecture de gouvernance du XIXe siècle pour faire face à un jeu de pouvoir le plus puissant du XXIe siècle.
01 Un rapport d’enquête qui a secoué la Silicon Valley
Le 6 avril 2026, le « New Yorker » a publié un article d’enquête approfondi, réalisé en 18 mois, révélant une affaire interne d’OpenAI qui, à ce jour, continue de hanter de nombreux initiés.
Le cœur de ce rapport repose sur un mémo interne de soixante-dix pages, compilé à l’automne 2023 par l’ancien directeur scientifique d’OpenAI Ilya Sutskever, ainsi que sur plus de deux cents pages de notes privées conservées par le cofondateur d’Anthropic Dario Amodei. Après la publication de l’article, toutes les preuves convergent vers une même conclusion : Sam Altman, le dirigeant d’OpenAI, présenterait un schéma de comportements correspondant à « des mensonges constants ».
Ce n’est pas une simple rumeur technologique. C’est une remise en question fondamentale, sur la nature même du système, quant à savoir si le plus haut responsable de l’une des entreprises technologiques les plus puissantes de l’histoire humaine mérite d’être digne de confiance.
02 Ce n’est pas le problème d’Altman, à lui seul
Si vous comprenez cette affaire uniquement sous cet angle, vous passez à côté de la véritable question.
Les médias grand public se demandent : Altman mérite-t-il la confiance ?
Mais la vraie question est celle-ci : lorsqu’une technologie capable de changer la civilisation humaine est confiée à une conception institutionnelle « fondée sur la conscience », le danger n’est pas un accident, il est inévitable.
Nous avons donné un nom à ce phénomène : le dysfonctionnement structurel de la gouvernance de l’IA.
Ce n’est pas un problème qui concerne Altman seul. C’est une maladie commune à l’ensemble de l’industrie de l’IA.
La confiance est l’un des mots les plus fréquemment employés dans le domaine de l’IA. Presque chaque entreprise d’IA vous dira : faites-nous confiance, nous mettons la sécurité en priorité, notre technologie profitera à l’humanité. Mais l’enquête du « New Yorker » met en évidence une réalité brutale : OpenAI n’a jamais mis en place de structure institutionnelle rendant la confiance superflue.
Les principales décisions de cette organisation sont prises par une seule personne, ou tout au plus par quelques personnes. Il n’existe aucun mécanisme de contrôle externe. Il n’existe aucun mécanisme de transparence obligatoire. Les engagements ne sont que des outils, pas des contraintes.
Dans « Le Mythe de Sisyphe », Camus écrit : « Juger si la vie vaut la peine d’être vécée, c’est répondre à la question fondamentale de la philosophie. » La même logique s’applique au domaine de l’IA : lorsque la technologie peut changer la civilisation et que les contraintes institutionnelles sont si fragiles, comment construire un système qui n’a pas besoin de dépendre de la probité individuelle ?
03 La liste des engagements trahis
L’enquête du « New Yorker » dresse une liste complète des « engagements trahis ».
Le premier point concerne les négociations avec Microsoft en 2019. À cette époque, OpenAI passait d’une organisation à but non lucratif à une entité « à profits plafonnés ». Dario Amodei, cofondateur d’Anthropic, a proposé pendant les négociations une clause de sécurité clé, « fusion et assistance » — autrement dit, si une autre entreprise est plus proche de l’AGI en matière de sécurité, OpenAI doit cesser la concurrence et fusionner avec elle. C’était la ligne rouge sur laquelle il ne transigeait pas lorsqu’il participait aux négociations. Après la signature du contrat, Amodei a constaté que Microsoft disposait d’un droit de veto sur cette fusion, ce qui vidait la clause de sa substance. Lorsque, face à face, il a demandé à Altman de confirmer, Altman a d’abord nié l’existence de cette clause, jusqu’à ce qu’Amodei fasse venir un collègue pour attester sur place. Ce n’est qu’alors qu’Altman a reconnu la clause, en prétendant « ne pas s’en souvenir ». Dans ses notes privées, Amodei a écrit : « 80 % de la charte ont été trahis. »
Le deuxième point concerne l’engagement en matière de puissance de calcul en 2023. OpenAI avait annoncé avec emphase la création d’une « équipe de super alignement », en promettant d’y investir 20 % de la puissance de calcul de l’entreprise. Mais des initiés révèlent que, dans les faits, cette équipe n’a reçu que 1 % à 2 % de puissance de calcul, et qu’elle utilisait des puces les plus anciennes et les moins bonnes. Lorsque le responsable Jan Leike proteste, la réponse des dirigeants est d’une froideur implacable : « Cet engagement n’a jamais été réaliste. » À noter ici, la mémoire sélective : on fait 20 %, dans la réalité on donne 1 %-2 %, puis on affirme que « l’engagement n’était pas réaliste ». Ce n’est pas une erreur d’exécution, c’est un oubli systémique.
Ce n’est pas une question de probité. C’est la manifestation inévitable de la défaillance d’un système. Lorsque le pouvoir est concentré entre les mains d’une seule personne et que cette personne a, par nature, une tendance à affaiblir la force contraignante des engagements, alors les engagements seront forcément oubliés de manière systématique, redéfinis, puis rationalisés. Ce n’est pas un défaut d’Altman seul : c’est une caractéristique commune à toute structure de pouvoir centralisée.
04 Pourquoi les lanceurs d’alerte échouent toujours
Ilya Sutskever a écrit, dans un mémo adressé au conseil d’administration, une phrase qui, en substance, dit ceci : toute personne qui s’engage à construire une technologie susceptible de changer la civilisation assumera des responsabilités sans précédent, mais au final, celles et ceux qui se retrouvent à ces postes sont souvent des personnes intéressées par le pouvoir.
Il existe ici un paradoxe profond : ceux qui ont le plus besoin d’être contraints sont souvent ceux qui désirent le plus obtenir le pouvoir. Et la conception institutionnelle actuelle n’a aucune défense contre ce paradoxe.
Quand Ilya décide d’émettre un avertissement depuis l’intérieur, il ne signale pas à des organismes de régulation externes, car l’industrie de l’IA ne dispose presque d’aucune régulation externe ; il ne organise pas non plus une action collective des employés, parce qu’il est un scientifique, pas un militant. Ses seuls atouts se résument à un document, et à la présence au conseil d’administration de personnes qui pourraient avoir conscience et volonté.
Au final, nous savons tous ce qui s’est passé : en novembre 2023, le conseil a bien licencié Altman, mais cinq jours plus tard, sous la pression simultanée du capital, de l’opinion publique et des intérêts des employés, le conseil s’est entièrement disloqué ; Altman est revenu en héros, tandis que Ilya, celui qui avait tenté de lancer l’alerte, a été écarté du cœur du pouvoir.
Ce n’est pas seulement une histoire de « Altman trop puissant ». C’est une histoire de conception institutionnelle : dans une organisation où le pouvoir est extrêmement concentré, la défaillance du mécanisme de lanceurs d’alerte est structurelle, pas accidentelle. La raison est très simple : la mise en jeu du lanceur d’alerte, c’est la réputation et les perspectives de carrière liées à une collusion avec l’employeur. Dès qu’une organisation choisit de nier, de temporiser et de marginaliser ces voix, une personne a presque impossible à y résister. L’essence d’une structure centralisée, c’est de rendre les voix externes difficiles à entrer et les voix internes difficiles à amplifier.
La même histoire s’est produite avec Dario Amodei. Lorsqu’il a constaté qu’il ne pouvait pas changer de l’intérieur la culture de sécurité d’OpenAI, il a choisi une autre voie : partir et fonder Anthropic, afin de mettre en pratique ses propres valeurs à travers son organisation. C’est un repli glorieux, mais ce n’est pas une victoire du système — car cela dépend des convictions personnelles du fondateur, et non de garanties institutionnelles.
Le problème central de la gouvernance de l’IA n’est pas « comment former davantage de dirigeants d’IA dotés de conscience », mais « comment concevoir un système capable de fonctionner même quand les dirigeants manquent de conscience ».
05 La blockchain n’est pas un remède miracle, mais il manque justement la pièce du puzzle
Je propose ici un jugement qui pourrait surprendre les lecteurs qui ne sont pas familiers de la sphère blockchain : la valeur centrale de la blockchain n’est pas d’émettre des tokens, ni de spéculer sur Web 3, mais une innovation de paradigme en tant que technique de gouvernance — l’externalisation de la confiance.
Que signifie « externaliser la confiance » ? Les institutions traditionnelles s’appuient sur « faire confiance à une institution ou à une personne ». L’approche de la blockchain est totalement différente : transférer la confiance des personnes vers les règles et le code. Ne pas dépendre d’un tiers de confiance, mais dépendre de règles transparentes et de preuves vérifiables.
Les failles de la gouvernance de l’IA résident précisément dans le fait qu’elle manque totalement de ce type de mécanisme d’externalisation de la confiance. Les engagements d’OpenAI sont évalués par OpenAI lui-même quant à leur respect. Ce n’est pas une régulation : c’est une auto-notation. Le monde extérieur ne peut pas vérifier de manière indépendante s’ils ont réellement utilisé 20 % de la puissance de calcul pour la recherche sur la sécurité ; il ne peut pas non plus vérifier de manière indépendante si leurs processus de publication de modèles ont réellement été approuvés par le comité de sécurité. La transparence est une option, pas une exigence structurelle.
La blockchain fournit une voie de solution possible. Il ne s’agit pas de dire que « mettre les modèles d’IA on-chain » suffit à résoudre le problème — la technologie ne peut pas remplacer les enjeux de gouvernance. Il s’agit plutôt du fait que, grâce à des mécanismes d’enregistrement transparents et vérifiables, le comportement des systèmes d’IA peut devenir plus transparent et plus facilement auditable. Par exemple, un journal de décisions d’IA basé sur la blockchain peut permettre d’enregistrer sur la chaîne et de façon immuable chaque mise à jour clé d’un modèle, et chaque décision de répartition de la puissance de calcul. Cela ne rendra pas le système d’IA parfait, mais au moins rendra « l’oubli systémique des engagements » plus difficile.
Bien sûr, ce n’est qu une direction, pas un remède miracle. La technologie elle-même ne peut pas remplacer la gouvernance. Mais à l’époque où la gouvernance de l’IA est presque un champ vide, tout schéma capable de rendre le pouvoir plus transparent, plus contraint et plus structuré, mérite d’être discuté sérieusement.
06 Une interrogation plus profonde
La véritable leçon de la crise d’OpenAI ne réside pas dans la question de savoir quel type de personne est Altman.
Elle réside plutôt dans ceci : lorsque une technologie susceptible de déterminer la direction de la civilisation humaine se retrouve dans un cadre institutionnel « fondé sur la conscience », le risque ne provient pas d’une perte de contrôle technique, mais d’une défaillance institutionnelle.
Dans l’histoire de l’humanité, chaque grande révolution technologique a été accompagnée d’une itération des modes de gouvernance. L’énergie nucléaire a conduit à la création de l’Agence internationale de l’énergie atomique et à un système de non-prolifération nucléaire. Internet a conduit à l’adoption de règles de protection des données et de réglementations en matière de cybersécurité. Chaque technologie capable de modifier la structure du pouvoir oblige l’humanité à établir de nouveaux cadres institutionnels pour la gérer.
L’AGI est la première technologie dont le potentiel de changement de la civilisation existe alors que l’humanité n’a pas encore construit de cadre de gouvernance efficace. Ce cadre ne peut pas dépendre de la probité individuelle de n’importe quel fondateur, ni dépendre d’un engagement auto-déclaré par n’importe quelle entreprise. Il doit s’agir d’un ensemble de systèmes institutionnels structurels, de contrôle et d’équilibre, qui ne dépend d’aucune conscience individuelle.
Or, à l’heure actuelle, nous ne l’avons pas.
Concernant le mémo de soixante-dix pages relatif à Ilya Sutskever, l’enquête du « New Yorker » en restitue le contenu essentiel : Ilya y exprime clairement son jugement auprès du conseil d’administration : il estime qu’Altman ne devrait pas devenir la personne détenant le bouton permettant de contrôler l’AGI.
Ce document constitue la mèche qui a déclenché l’événement « guerre de palais » d’OpenAI, qui a choqué le monde en 2023. Le conseil a bien pris, sur cette base, la décision de licencier. Mais au cours des cinq jours suivants, la structure de pouvoir de l’ensemble de l’industrie a fait son choix.
Ce n’est pas une histoire où « les bons gagnent contre les méchants » ou « les méchants gagnent contre les bons ». C’est une histoire de système. Dans un bon système, certaines actions d’Altman seraient contraintes ; dans un système défaillant, même le plus bien intentionné des lanceurs d’alerte se fera retourner par le pouvoir.
L’humanité entre dans une époque où l’AGI pourrait changer la civilisation. Et les institutions que nous utilisons pour gérer cette époque restent encore celles du XIXe siècle.
Ce n’est la faute de personne en particulier. C’est un cas classique d’échec dans la conception d’un système institutionnel.
Et la véritable leçon n’est pas « ne pas faire confiance à Altman » — elle est de mettre en place un système qui permette de remettre en question n’importe qui, de le soumettre à des mécanismes de contrôle et d’empêcher qu’il puisse se soustraire à des contraintes de transparence.
La confiance est nécessaire. Mais à l’ère de l’IA, la confiance ne suffit absolument pas. Ce dont nous avons besoin, c’est d’une série d’institutions qui rende la confiance superflue.
(Cet article est compilé à partir de l’enquête du « New Yorker » du 6 avril 2026, des déclarations officielles d’OpenAI et de documents publics, avec les données à jour au 6 avril 2026.)