Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Ce que l'IA ne peut toujours pas faire dans les services financiers
Les banques ont investi 30 milliards de dollars dans l’IA en 2025. Pourtant, 70 % des implémentations de l’IA dans le secteur bancaire ne montrent aucun retour sur investissement mesurable, et seulement 26 % des clients font confiance à l’IA pour la gestion de leurs données financières. En tant que professionnel travaillant en étroite collaboration avec des institutions financières déployant ces systèmes, je souhaite faire le tri dans le bruit et partager ce que je vois systématiquement freiner l’IA en pratique.
Le Mur de l’Intégration
Chaque processeur de paiement, prêteur et banque fonctionne avec des formats de données différents, des API propriétaires et des systèmes hérités incompatibles. Les agents IA ont besoin de flux de données unifiés pour fonctionner, mais l’infrastructure financière est délibérément fragmentée pour des raisons de sécurité et de compétitivité.
Concrètement, cela signifie que les équipes passent plus de temps à construire des couches de traduction entre systèmes qu’à entraîner réellement des modèles. Les initiatives d’ouverture bancaire gagnent du terrain, mais des frameworks comme le Protocole de Contexte du Modèle restent des technologies émergentes plutôt qu’une infrastructure établie. Le défi technique s’ajoute à un défi organisationnel : déployer l’IA ne consiste pas simplement à installer un logiciel. Il faut reconfigurer la façon dont les décisions sont prises, comment les données circulent, et comment le personnel interagit avec les systèmes. La recherche de la Réserve fédérale montre que la productivité diminue souvent au début, alors que les équipes peinent à s’adapter.
Le Biais ne Disparaît pas ; il S’étend
L’IA ne crée pas de biais. Elle amplifie le biais existant avec une précision mathématique. Lorsqu’un modèle s’entraîne sur des décennies de décisions de crédit reflétant des pratiques de redlining et de discrimination dans le prêt, il ne détecte pas la discrimination. Il identifie des schémas qui optimisent ces résultats historiques.
L’affaire Hello Digit illustre cela concrètement. Leur algorithme d’épargne automatisée a à plusieurs reprises causé des découverts qu’il était censé prévenir, entraînant une amende de 2,7 millions de dollars de la CFPB. Les algorithmes hypothécaires de Freddie Mac et Fannie Mae reproduisaient des schémas de discrimination raciale sans que les ingénieurs ne les programment explicitement. Même lorsque les caractéristiques protégées sont retirées des modèles, des variables proxy (codes postaux, historique professionnel, habitudes de dépense) portent silencieusement les mêmes signaux.
Les tribunaux ont confirmé que déployer un modèle produisant des résultats discriminatoires équivaut légalement à mettre en œuvre une politique discriminatoire, quel que soit l’intention.
Les Hallucinations ne sont pas de simples Quirks Acceptables
Dans les applications grand public, les hallucinations de l’IA sont une nuisance. Dans les services financiers, elles constituent une violation de la conformité. Les grands modèles de langage sont conçus pour générer un texte plausible, pas nécessairement précis. Ils présentent des calculs de prêt fabriqués et des exigences réglementaires inventées avec la même confiance qu’ils affichent lorsqu’ils sont corrects.
NatWest a spécifiquement collaboré avec IBM pour construire leur assistant IA Cora+ avec des mesures de sécurité contre ce problème, précisément pour cette raison. L’erreur de modification hypothécaire de Wells Fargo en 2018 illustre bien l’enjeu : une seule erreur de calcul n’a pas affecté un seul dossier, mais a causé la perte de leur domicile à plus de 500 personnes et a empêché des centaines d’autres d’obtenir les modifications de prêt auxquelles elles avaient droit. Lorsqu’une erreur de calcul à grande échelle survient, chaque processus en aval dépendant de cette sortie est compromis.
Conformité réglementaire et nature expérimentale de l’IA sont en conflit direct
Le règlement européen sur l’IA exige que les institutions expliquent précisément comment chaque décision a été prise par l’IA, prouvent que le modèle ne discrimine pas, et démontrent une surveillance continue pour détecter tout dérive. DORA, qui est entré en vigueur début 2025, impose une détection en temps réel des incidents et une traçabilité complète de l’infrastructure.
Le problème pratique : certifier un système qui apprend et s’adapte en permanence est intrinsèquement difficile. Les institutions financières finissent par figer des versions de modèles pour l’évaluation réglementaire, ce qui signifie que la capacité de l’IA de pointe dépassera toujours celle de l’IA conforme. Seuls 9 % des dirigeants de banques britanniques se sentent prêts pour les futures réglementations sur l’IA.
Opérer à travers différentes juridictions complique encore la tâche. Ce qui satisfait à l’UE ne satisfait pas forcément au Royaume-Uni ou aux États-Unis. Il n’existe pas de norme mondiale.
Où l’IA Apporte Vraiment des Résultats Aujourd’hui
Il est important de nommer directement l’écart entre le battage médiatique et la réalité opérationnelle. L’IA fonctionne bien dans la détection de fraude (environ 95 % de précision avec des taux de faux positifs acceptables), la surveillance des transactions, le traitement de documents, et les requêtes simples des clients. Ces cas fonctionnent parce qu’il s’agit de problèmes étroits, bien définis, avec des métriques de succès claires et des taux d’erreur tolérables.
Ce qui reste bloqué en phase pilote : la décision de crédit autonome, les décisions de prêt non supervisées, la surveillance automatisée complète de la conformité. Ces domaines nécessitent un niveau de fiabilité et d’explicabilité que l’IA actuelle ne peut pas garantir de manière cohérente à grande échelle sous la surveillance réglementaire.
Le CTO de Grasshopper Bank le dit simplement : l’IA peut aider à la surveillance de portefeuille, mais l’approbation finale du crédit doit toujours être humaine. L’histoire de Klarna renforce ce point sous un angle différent. Après avoir affirmé publiquement que leur chatbot avait remplacé 700 employés, le PDG Sebastian Siemiatkowski a fait marche arrière, levé un gel d’embauche de 18 mois, et reconnu que les clients ont besoin d’une option de contact humain, surtout en période de stress financier.
Les Décisions Stratégiques restent entièrement humaines
Aucune IA entraînée sur des données historiques n’aurait prévu que les gens veuillent partager la note d’un restaurant via une application, investir automatiquement leur petite monnaie, ou louer des logements à des inconnus. Aucune de ces comportements n’existait dans aucun ensemble d’entraînement.
La croissance des marchés de prédiction, des frameworks de stablecoins comme la loi GENIUS, et le mouvement de la finance intégrée en 2025 ont tous été conçus par des personnes qui ont anticipé, avant que les données ne le montrent, un changement dans le comportement des clients et une opportunité réglementaire. L’IA excelle à amplifier ces idées une fois qu’elles existent. Elle ne les génère pas.
McKinsey estime que l’IA pourrait ajouter entre 200 et 340 milliards de dollars par an à la banque mondiale. Cette valeur provient de l’exécution et de la mise à l’échelle de stratégies conçues par des humains, et non de l’invention indépendante de ces stratégies par l’IA.
Le message pratique pour les dirigeants financiers
Les institutions qui réussissent avec l’IA ne sont pas celles qui disposent des algorithmes les plus avancés. Ce sont celles qui ont été lucides sur ce que l’IA peut et ne peut pas faire, qui ont mis en place des cadres de gouvernance avant le déploiement, et qui ont conçu des flux de travail où les humains conservent le pouvoir de décision pour les enjeux cruciaux.
La question à poser n’est pas « que peut faire l’IA ? » mais « que devons-nous construire, et comment l’IA peut-elle nous aider à construire et à livrer plus vite et à plus grande échelle que nous ne le pourrions autrement ? » La première question considère l’IA comme un objectif. La seconde la voit comme un outil au service d’une stratégie. Cette distinction fait toute la différence.