GEO Zehirli ve Sahte Raporlar: Yapay Zeka Döneminde Bilgi Kirliliğinin Yeni Yüzü

La semaine dernière, la plateforme de protection des consommateurs a révélé comment l’intelligence artificielle peut être manipulée. Bien que cela semble simple, cela pointe en réalité vers un problème profond : les faux rapports et contenus trompeurs ne trompent plus seulement les moteurs de recherche, mais aussi les systèmes d’IA. La méthode appelée “GEO” — Optimisation du Moteur Génératif, fonctionne essentiellement selon ce principe : lorsque les marques ou consommateurs posent des questions à l’IA, ils veulent que celle-ci recommande en priorité leurs produits ou services. Pour cela, des entreprises offrant des services GEO publient massivement des articles promotionnels sur Internet, incitant l’IA à considérer ces faux rapports comme de véritables informations.

Pour tester ce système, 315 journalistes ont mené une expérience. Ils ont acheté un logiciel appelé “LiQing” sur Taobao — capable de générer automatiquement de faux articles de promotion. Ils ont inventé un bracelet intelligent inexistant, avec des caractéristiques imaginaires comme un “capteur d’intrication quantique” ou une “batterie à durée de vie de niveau trou noir”. Le logiciel a créé et publié automatiquement plus de quinze articles promotionnels en ligne. Deux heures plus tard, ils ont demandé à l’IA : “Peux-tu recommander un bracelet de santé intelligent ?” La réponse était stupéfiante : l’IA a en fait mis en avant ce bracelet inexistant en tête de la liste. La société derrière LiQing, Beijing LiSi Culture Media, est une entreprise individuelle.

Cette expérience a montré à quel point les faux rapports peuvent être efficaces, mais ce n’était pas la première fois.

Histoire de 20 ans de manipulation des moteurs de recherche par de faux rapports

Ce modèle n’est pas nouveau. En 2008, CCTV expliquait dans l’émission “30 Minutes d’Actualités” comment Baidu achetait ses résultats de recherche. En payant, on pouvait placer son site en haut des résultats, voire voir des publicités pour de faux produits médicaux. À l’époque, cela s’appelait le SEO — Optimisation pour les moteurs de recherche. Les faux rapports contemporains étaient comme des cliniques privées à Putian. Ces hôpitaux dépensaient des millions pour apparaître en première page de Baidu.

En 2013, la situation est devenue encore plus dramatique. Putian a dépensé 12 milliards de yuans en un an pour la publicité et la promotion sur Baidu, représentant presque la moitié de ses revenus publicitaires totaux. Des établissements de santé sans qualification ont diffusé de faux rapports via le SEO, se plaçant au même niveau que des hôpitaux universitaires légitimes. La plupart des gens ne pouvaient pas faire la différence. En 2016, Wei Zexi, étudiant en médecine, a fait confiance à ces faux rapports, a choisi un hôpital de Putian en haut du classement, y est allé pour un traitement, et a perdu la vie. La Chine entière s’est réveillée.

Après 2016, le gouvernement a intervenu en imposant des règles : il s’agissait de publicité payante. Mais cette méthode n’a pas disparu, elle a été simplement régulée. Les faux rapports circulaient toujours, mais avec une petite mention “Publicité”. Les utilisateurs cliquaient toujours, car le problème n’était pas la mention, mais la confiance naturelle dans les résultats en haut de la page. La fraude à Putian a été atténuée, mais elle existe toujours. Aujourd’hui, cette gestion systématique de fausses informations passe à l’ère de l’IA.

Investissement du marché financier dans le GEO et les faux rapports

Ce qui est intéressant, c’est que ce modèle n’a pas disparu, au contraire, il a été fortement adopté par le marché financier. À l’automne 2025, BlueFocus, la plus grande société de marketing et communication en Chine, a investi des millions dans une société GEO appelée PureblueAI. Celle-ci optimisait le classement des résultats de recherche IA de vraies marques, avec des clients comme Ant Group, Tencent Cloud ou Volvo.

Ce investissement n’était pas totalement nouveau — c’était simplement la version IA du SEO. Mais pour les investisseurs, cela est devenu un concept. On a appelé ce secteur “la nouvelle porte d’entrée du trafic à l’ère de l’IA”, et on a commencé à faire monter le cours des actions des entreprises impliquées. En neuf jours de bourse, l’action de BlueFocus a augmenté de 132 %. D’autres sociétés de marketing numérique ont doublé de valeur.

Mais il y a un twist : après cette hausse, BlueFocus a publié un avertissement de risque : le modèle GEO ne génère pas encore de profits. Il ne rapporte rien à OpenAI ou Baidu. Par ailleurs, le PDG de BlueFocus, Zhao Wenquan, a annoncé la vente de 20 millions d’actions, ce qui à l’époque représentait environ 467 millions de yuans. En un mois, le prix de l’action est passé de 9,6 à 23,3 yuans, soit une hausse de 143 %. Pendant cette période, le PDG a vendu ses actions. Le profit est réel, mais le modèle GEO ne génère pas encore de revenus. Les recherches ouvertes montrent que le marché annuel du GEO en Chine ne dépasse pas 2,9 milliards de yuans.

Le système GEO frauduleux révélé par 315 a été créé avec un logiciel coûtant quelques centaines de yuans. Mais le concept a fait un tour en bourse, rapportant des dizaines de milliards de yuans. La question qui surprend : s’agit-il de rapports frauduleux déviants ou d’un vrai modèle de marché légitime ?

De OpenAI à Baidu : pourquoi les plateformes ne peuvent se passer des faux rapports

En janvier 2026, OpenAI a annoncé sur son blog officiel que ChatGPT commencerait à diffuser des publicités. Les utilisateurs gratuits et abonnés basiques verront des annonces, mais pas les abonnés premium. Peu après, les publicités sont devenues actives. Parmi les premiers annonceurs : Ford, Adobe, Target, Best Buy. Si vous demandez à ChatGPT quel outil acheter, il peut vous répondre avec un lien sponsorisé de Ford.

OpenAI a clairement déclaré : “Les réponses de ChatGPT ne seront pas influencées par la publicité. Les réponses resteront des réponses, les publicités seront des publicités. Elles seront séparées.”

Ce discours vous semble familier ? Oui, car Baidu disait exactement la même chose il y a vingt ans : “Les résultats payants sont payants, les résultats naturels sont naturels. Ils seront séparés.” Mais ensuite, les cinq premiers résultats naturels sont devenus entièrement remplis de publicités, et les utilisateurs ont commencé à confondre faux rapports et véritables informations.

Aujourd’hui, OpenAI prévoit de doubler ses revenus publicitaires pour atteindre 170 milliards de dollars. Avec plus de 800 millions d’utilisateurs actifs hebdomadaires, dont 95 % sont gratuits, tous constituent une cible publicitaire.

Revenons à la situation initiale de 315 : LiQing trompe l’IA avec de faux rapports, alors qu’OpenAI vend officiellement de la publicité. L’un est secret, l’autre ouvert. L’un publie de faux rapports, l’autre vend des publicités institutionnelles. Mais, du point de vue de la technologie IA, c’est la même chose : les deux publient du contenu sur Internet et attendent que l’IA le collecte et l’intègre dans ses recommandations.

Le logiciel de faux rapports de 315 coûtait quelques centaines de dollars, tandis qu’OpenAI vise à gagner 170 milliards de dollars par an avec cette méthode. La même pollution de l’information, mais des résultats financiers très différents. La seule différence réside dans la régulation et la licence.

La rupture de la confiance est-elle proche ?

En novembre 2023, des chercheurs de Princeton et de l’Institut indien de technologie ont publié sur arXiv un article intitulé “GEO : Optimisation du Moteur Génératif”. La première définition officielle de ce concept y a été donnée. Deux ans se sont écoulés depuis la révélation de 315.

Que s’est-il passé en deux ans ? Marché gris, investissements de millions de dollars, valorisations, ventes d’actions par des membres du conseil, plateformes d’IA développant leurs propres applications publicitaires…

Le chemin parcouru par le SEO en vingt ans a été parcouru par le GEO en deux ans. Mais avec une différence majeure : à l’époque, il a fallu des années pour comprendre que faire confiance aux résultats des moteurs de recherche était risqué, pour lutter, pour perdre. Des personnes comme Wei Zexi ont payé de leur vie. Aujourd’hui, l’IA est encore dans la période de confiance, et la majorité des gens ne réalisent pas que même ses réponses peuvent être achetées.

Mais cette période de confiance pourrait ne pas durer longtemps. La prochaine fois que vous demanderez à l’IA ce qu’il faut acheter, prenez une seconde de réflexion : la réponse peut être gratuite, mais vous ignorez ce qui se cache derrière. Si des faux rapports entrent dans le contenu, votre perception ne sera plus jamais la même.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler