ChatGPTAI d'OpenAI a été lancé il y a trois ans. Le véritable champ de bataille est désormais axé sur la puissance de calcul, le coût et l'écosystème. Le résultat final ne dépend peut-être pas du modèle lui-même, mais de qui peut transformer l'IA en un système complet et durable. (Résumé : ChatGPT prendra en charge les paiements directs via PayPal en 2026, dernière pièce du puzzle de l'empire e-commerce d'OpenAI) (Contexte : Découvrez les trois grandes fonctionnalités du navigateur natif d'OpenAI “ChatGPT Atlas”, l'agent IA peut-il ébranler l'hégémonie de Chrome ?) Depuis le lancement de ChatGPT le 30 novembre 2022 jusqu'à aujourd'hui, cela fait exactement trois ans, et la vitesse d'évolution de l'ensemble de l'industrie technologique a été si rapide qu'elle est difficile à suivre. À l'époque, tout le monde pensait que la course à l'IA serait une simple “guerre des modèles” : celui qui a des paramètres de modèle plus grands, des données plus volumineuses et une puissance de calcul plus violente serait roi sur ce marché. Cependant, trois ans plus tard, en regardant en arrière, on réalise que ces premières idées étaient en réalité trop simplistes. La véritable compétition n'a jamais été de savoir “qui peut créer le plus grand modèle”, mais “qui peut transformer le modèle en un système complet”. Un système qui peut être appliqué, commercialisé, supporter les coûts, supporter la consommation de puissance de calcul et survivre dans les flux de travail des entreprises. Au cours de ces trois années, la courbe technologique des grands modèles a presque progressé de manière visible, mais la vitesse de commercialisation des entreprises d'IA n'a pas suivi, et même a été plus lente que prévu par de nombreuses personnes. La raison n'est pas un manque de technologie, mais l'ensemble de l'industrie a déjà changé de la compétition par la taille des modèles à celle de “qui peut supporter la pression avant l'aube”. La capacité du modèle, la fourniture de puissance de calcul, le coût d'inférence et les attentes des utilisateurs, ces quatre courbes montent en flèche simultanément, comme une corde d'arc tendue au maximum. Et chaque entreprise d'IA est sur cette corde, celui qui peut tenir le plus longtemps, de manière stable et supporter les coûts, est le véritable gagnant. De la course aux armements de paramètres à la course à l'efficacité Dans la première année de l'émergence de l'IA, tout le monde ne voyait que les paramètres. Plus le modèle est grand, plus il est avancé ; plus il est coûteux, plus il est haut de gamme. La discussion dominante à l'époque considérait même la quantité de paramètres comme une sorte de “dignité”, comme si un modèle super grand pouvait représenter à lui seul une avance technologique. Mais après 2024, la situation commence à changer subtilement. Les entreprises, une fois déployées, réalisent que la taille du modèle n'est plus importante, ce qui compte, c'est si le modèle peut accomplir des tâches de manière “stable, bon marché et rapide”. L'amélioration de l'intelligence du modèle ne se manifeste plus comme une explosion linéaire comme les premières années ; les progrès ressemblent plutôt à un ajustement progressif. Plus le modèle est grand, plus le coût d'inférence est incroyable, plus les barrières de déploiement sont élevées, et moins les entreprises sont disposées à payer. Au contraire, ces petits modèles qui sont formés plus efficacement, peuvent être compressés et fonctionner sur des GPU ordinaires, deviennent en fait les produits d'IA les plus populaires en 2025. De nombreuses entreprises commencent même à utiliser des modèles open source en interne pour remplacer les API propriétaires, non pas parce que l'open source est plus puissant, mais parce que l'open source a brisé toutes les attentes en termes de “coût-bénéfice”. Des besoins en puissance de calcul plus faibles, une vitesse d'itération plus rapide et des méthodes de déploiement plus flexibles incitent de nombreuses entreprises qui dépendaient auparavant de modèles propriétaires à se demander : “Avons-nous vraiment besoin de dépenser autant ?” “Avec 80 % de la capacité d'un modèle open source, couplé à un ajustement interne, cela suffit, non ?” La compétition des modèles est déjà passée d'une “compétition de force” à une “compétition d'efficacité”. Ce n'est pas qui est le plus fort, mais qui peut le mieux rendre l'IA abordable pour les entreprises. Le GPU n'est plus un matériel, c'est une structure de pouvoir Si le modèle est passé de mythe à marchandise en trois ans, le GPU, pendant ce temps, est devenu directement une “ressource stratégique”. La plus grande peur des entreprises d'IA n'est plus d'être à la traîne par rapport aux modèles, mais de manquer de GPU. Lorsque les modèles deviennent plus grands, que les tâches d'inférence augmentent et que les attentes des utilisateurs s'élèvent, chaque entreprise d'IA semble suspendue à la chaîne d'approvisionnement de NVIDIA. Pas assez de puces, pas de nouveaux modèles à former ; pas assez de puces, pas d'augmentation de la vitesse d'inférence ; pas assez de puces, pas d'extension de la base d'utilisateurs ; pas assez de puces, même le financement devient difficile à lever, car les investisseurs savent pertinemment : sans puissance de calcul, il n'y a pas d'avenir. Cela crée une situation très étrange dans la compétition de l'IA : la technologie progresse, mais le goulot d'étranglement se situe dans l'électricité, les puces et la chaîne d'approvisionnement. L'ensemble du marché semble appuyer simultanément sur l'accélérateur et le frein, avançant à une vitesse qui laisse sans souffle, mais la moindre rupture de puce peut faire chuter instantanément une entreprise. C'est le point le plus réel et le plus fondamental de la douleur de l'industrie de l'IA : vous ne rivalisez pas avec vos concurrents, vous rivalisez avec la chaîne d'approvisionnement. Le coût d'inférence devient ainsi la ligne de vie des entreprises. Plus le modèle est puissant, plus l'inférence est coûteuse, plus il y a d'utilisateurs, plus les pertes sont importantes. Les entreprises d'IA deviennent un modèle commercial contre-intuitif : plus elles sont populaires, plus elles perdent d'argent, plus il y a d'utilisateurs, plus c'est dangereux. C'est aussi pourquoi la véritable barrière de protection de l'IA commence à devenir claire. La véritable barrière de protection n'est pas dans le modèle Le marché trois ans plus tard finit enfin par parvenir à un consensus presque cruel : la capacité du modèle lui-même n'est plus la plus importante barrière de protection. Parce que le modèle peut être reproduit, comprimé, ajusté et poursuivi par la communauté open source. Ce qui peut réellement distinguer les gagnants des perdants, ce sont seulement deux choses. La première est “la distribution” Les entreprises ayant des entrées au niveau système n'ont pas besoin du modèle le plus puissant pour dominer le marché. Google utilise son moteur de recherche et tout son écosystème pour garantir que Gemini dispose d'un flux de trafic stable, Microsoft utilise Windows et Office pour faire en sorte que Copilot soit naturellement devenu une porte d'entrée mondiale ; Meta, plus follement, intègre directement des modèles open source dans Instagram, WhatsApp, Facebook, dominant ainsi la distribution. La distribution est la force concurrentielle la plus traditionnelle et la plus réaliste dans le domaine technologique. Vous avez l'entrée, vous avez le pouvoir de décision, c'est aussi la raison pour laquelle de nouvelles marques comme OpenAI, Perplexity, Manus et autres licornes subissent une pression de plus en plus forte. La seconde est “peut-on vraiment faire fonctionner l'IA” La capacité de conversation n'est plus un point fort, le multimodal n'est plus rare. Ce qui est vraiment important, c'est si le modèle peut appeler correctement des outils, s'il peut écrire des programmes, s'il peut analyser des documents, s'il peut connecter des API, s'il peut décomposer des tâches et s'il peut devenir un véritable exécuteur de travail au sein de l'entreprise. Lorsque le modèle évolue en “agent intelligent”, capable d'accomplir des processus, de prendre des décisions et d'exécuter des tâches, c'est à ce moment-là qu'il génère réellement de la productivité. Les entreprises capables de construire une chaîne d'outils complète deviendront, à l'avenir, tout comme les plateformes cloud d'aujourd'hui, des infrastructures de base indispensables. Sur le marché trois ans plus tard, la barrière de protection devient enfin claire : ce n'est pas qui a le modèle le plus puissant, mais qui peut le mieux transformer l'IA en un système de travail performant. L'avenir du marché de l'IA se divise progressivement en trois écosystèmes À mesure que l'écart de capacité entre les modèles se resserre, que la pression sur la puissance de calcul augmente et que le coût devient central, les entreprises d'IA ont en réalité été discrètement divisées en trois camps, ces trois camps existeront à l'avenir, mais avec des destins complètement différents. Le premier est celui des géants de plateforme Ces entreprises, au départ, n'ont pas nécessairement les modèles les plus puissants, mais elles disposent d'un avantage écrasant en termes d'écosystème et de ressources financières, leur permettant de rattraper leur retard. Microsoft, Google, Meta, ces entreprises possèdent des points d'entrée de distribution au niveau mondial, leurs propres clouds, des réserves de GPU, des canaux de données et des produits intégrés. Pour elles, le modèle n'est pas un produit, mais un “outil accessoire à l'écosystème”. Le second est celui des entreprises de modèles purs OpenAI, Anthropic, Mistral, ces entreprises sont des acteurs technologiques purs, avec des capacités de modèle avancées, mais elles manquent d'OS, de téléphones, de moteurs de recherche, de plateformes sociales et surtout de “distribution”. Peu importe la puissance de leurs modèles, elles doivent s'appuyer sur l'écosystème d'autres pour atteindre massivement les utilisateurs. Dans les trois prochaines années…
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
ChatGPT fête son troisième anniversaire : la guerre des grands modèles touche à sa fin, où se trouve vraiment la barrière défensive ?
ChatGPTAI d'OpenAI a été lancé il y a trois ans. Le véritable champ de bataille est désormais axé sur la puissance de calcul, le coût et l'écosystème. Le résultat final ne dépend peut-être pas du modèle lui-même, mais de qui peut transformer l'IA en un système complet et durable. (Résumé : ChatGPT prendra en charge les paiements directs via PayPal en 2026, dernière pièce du puzzle de l'empire e-commerce d'OpenAI) (Contexte : Découvrez les trois grandes fonctionnalités du navigateur natif d'OpenAI “ChatGPT Atlas”, l'agent IA peut-il ébranler l'hégémonie de Chrome ?) Depuis le lancement de ChatGPT le 30 novembre 2022 jusqu'à aujourd'hui, cela fait exactement trois ans, et la vitesse d'évolution de l'ensemble de l'industrie technologique a été si rapide qu'elle est difficile à suivre. À l'époque, tout le monde pensait que la course à l'IA serait une simple “guerre des modèles” : celui qui a des paramètres de modèle plus grands, des données plus volumineuses et une puissance de calcul plus violente serait roi sur ce marché. Cependant, trois ans plus tard, en regardant en arrière, on réalise que ces premières idées étaient en réalité trop simplistes. La véritable compétition n'a jamais été de savoir “qui peut créer le plus grand modèle”, mais “qui peut transformer le modèle en un système complet”. Un système qui peut être appliqué, commercialisé, supporter les coûts, supporter la consommation de puissance de calcul et survivre dans les flux de travail des entreprises. Au cours de ces trois années, la courbe technologique des grands modèles a presque progressé de manière visible, mais la vitesse de commercialisation des entreprises d'IA n'a pas suivi, et même a été plus lente que prévu par de nombreuses personnes. La raison n'est pas un manque de technologie, mais l'ensemble de l'industrie a déjà changé de la compétition par la taille des modèles à celle de “qui peut supporter la pression avant l'aube”. La capacité du modèle, la fourniture de puissance de calcul, le coût d'inférence et les attentes des utilisateurs, ces quatre courbes montent en flèche simultanément, comme une corde d'arc tendue au maximum. Et chaque entreprise d'IA est sur cette corde, celui qui peut tenir le plus longtemps, de manière stable et supporter les coûts, est le véritable gagnant. De la course aux armements de paramètres à la course à l'efficacité Dans la première année de l'émergence de l'IA, tout le monde ne voyait que les paramètres. Plus le modèle est grand, plus il est avancé ; plus il est coûteux, plus il est haut de gamme. La discussion dominante à l'époque considérait même la quantité de paramètres comme une sorte de “dignité”, comme si un modèle super grand pouvait représenter à lui seul une avance technologique. Mais après 2024, la situation commence à changer subtilement. Les entreprises, une fois déployées, réalisent que la taille du modèle n'est plus importante, ce qui compte, c'est si le modèle peut accomplir des tâches de manière “stable, bon marché et rapide”. L'amélioration de l'intelligence du modèle ne se manifeste plus comme une explosion linéaire comme les premières années ; les progrès ressemblent plutôt à un ajustement progressif. Plus le modèle est grand, plus le coût d'inférence est incroyable, plus les barrières de déploiement sont élevées, et moins les entreprises sont disposées à payer. Au contraire, ces petits modèles qui sont formés plus efficacement, peuvent être compressés et fonctionner sur des GPU ordinaires, deviennent en fait les produits d'IA les plus populaires en 2025. De nombreuses entreprises commencent même à utiliser des modèles open source en interne pour remplacer les API propriétaires, non pas parce que l'open source est plus puissant, mais parce que l'open source a brisé toutes les attentes en termes de “coût-bénéfice”. Des besoins en puissance de calcul plus faibles, une vitesse d'itération plus rapide et des méthodes de déploiement plus flexibles incitent de nombreuses entreprises qui dépendaient auparavant de modèles propriétaires à se demander : “Avons-nous vraiment besoin de dépenser autant ?” “Avec 80 % de la capacité d'un modèle open source, couplé à un ajustement interne, cela suffit, non ?” La compétition des modèles est déjà passée d'une “compétition de force” à une “compétition d'efficacité”. Ce n'est pas qui est le plus fort, mais qui peut le mieux rendre l'IA abordable pour les entreprises. Le GPU n'est plus un matériel, c'est une structure de pouvoir Si le modèle est passé de mythe à marchandise en trois ans, le GPU, pendant ce temps, est devenu directement une “ressource stratégique”. La plus grande peur des entreprises d'IA n'est plus d'être à la traîne par rapport aux modèles, mais de manquer de GPU. Lorsque les modèles deviennent plus grands, que les tâches d'inférence augmentent et que les attentes des utilisateurs s'élèvent, chaque entreprise d'IA semble suspendue à la chaîne d'approvisionnement de NVIDIA. Pas assez de puces, pas de nouveaux modèles à former ; pas assez de puces, pas d'augmentation de la vitesse d'inférence ; pas assez de puces, pas d'extension de la base d'utilisateurs ; pas assez de puces, même le financement devient difficile à lever, car les investisseurs savent pertinemment : sans puissance de calcul, il n'y a pas d'avenir. Cela crée une situation très étrange dans la compétition de l'IA : la technologie progresse, mais le goulot d'étranglement se situe dans l'électricité, les puces et la chaîne d'approvisionnement. L'ensemble du marché semble appuyer simultanément sur l'accélérateur et le frein, avançant à une vitesse qui laisse sans souffle, mais la moindre rupture de puce peut faire chuter instantanément une entreprise. C'est le point le plus réel et le plus fondamental de la douleur de l'industrie de l'IA : vous ne rivalisez pas avec vos concurrents, vous rivalisez avec la chaîne d'approvisionnement. Le coût d'inférence devient ainsi la ligne de vie des entreprises. Plus le modèle est puissant, plus l'inférence est coûteuse, plus il y a d'utilisateurs, plus les pertes sont importantes. Les entreprises d'IA deviennent un modèle commercial contre-intuitif : plus elles sont populaires, plus elles perdent d'argent, plus il y a d'utilisateurs, plus c'est dangereux. C'est aussi pourquoi la véritable barrière de protection de l'IA commence à devenir claire. La véritable barrière de protection n'est pas dans le modèle Le marché trois ans plus tard finit enfin par parvenir à un consensus presque cruel : la capacité du modèle lui-même n'est plus la plus importante barrière de protection. Parce que le modèle peut être reproduit, comprimé, ajusté et poursuivi par la communauté open source. Ce qui peut réellement distinguer les gagnants des perdants, ce sont seulement deux choses. La première est “la distribution” Les entreprises ayant des entrées au niveau système n'ont pas besoin du modèle le plus puissant pour dominer le marché. Google utilise son moteur de recherche et tout son écosystème pour garantir que Gemini dispose d'un flux de trafic stable, Microsoft utilise Windows et Office pour faire en sorte que Copilot soit naturellement devenu une porte d'entrée mondiale ; Meta, plus follement, intègre directement des modèles open source dans Instagram, WhatsApp, Facebook, dominant ainsi la distribution. La distribution est la force concurrentielle la plus traditionnelle et la plus réaliste dans le domaine technologique. Vous avez l'entrée, vous avez le pouvoir de décision, c'est aussi la raison pour laquelle de nouvelles marques comme OpenAI, Perplexity, Manus et autres licornes subissent une pression de plus en plus forte. La seconde est “peut-on vraiment faire fonctionner l'IA” La capacité de conversation n'est plus un point fort, le multimodal n'est plus rare. Ce qui est vraiment important, c'est si le modèle peut appeler correctement des outils, s'il peut écrire des programmes, s'il peut analyser des documents, s'il peut connecter des API, s'il peut décomposer des tâches et s'il peut devenir un véritable exécuteur de travail au sein de l'entreprise. Lorsque le modèle évolue en “agent intelligent”, capable d'accomplir des processus, de prendre des décisions et d'exécuter des tâches, c'est à ce moment-là qu'il génère réellement de la productivité. Les entreprises capables de construire une chaîne d'outils complète deviendront, à l'avenir, tout comme les plateformes cloud d'aujourd'hui, des infrastructures de base indispensables. Sur le marché trois ans plus tard, la barrière de protection devient enfin claire : ce n'est pas qui a le modèle le plus puissant, mais qui peut le mieux transformer l'IA en un système de travail performant. L'avenir du marché de l'IA se divise progressivement en trois écosystèmes À mesure que l'écart de capacité entre les modèles se resserre, que la pression sur la puissance de calcul augmente et que le coût devient central, les entreprises d'IA ont en réalité été discrètement divisées en trois camps, ces trois camps existeront à l'avenir, mais avec des destins complètement différents. Le premier est celui des géants de plateforme Ces entreprises, au départ, n'ont pas nécessairement les modèles les plus puissants, mais elles disposent d'un avantage écrasant en termes d'écosystème et de ressources financières, leur permettant de rattraper leur retard. Microsoft, Google, Meta, ces entreprises possèdent des points d'entrée de distribution au niveau mondial, leurs propres clouds, des réserves de GPU, des canaux de données et des produits intégrés. Pour elles, le modèle n'est pas un produit, mais un “outil accessoire à l'écosystème”. Le second est celui des entreprises de modèles purs OpenAI, Anthropic, Mistral, ces entreprises sont des acteurs technologiques purs, avec des capacités de modèle avancées, mais elles manquent d'OS, de téléphones, de moteurs de recherche, de plateformes sociales et surtout de “distribution”. Peu importe la puissance de leurs modèles, elles doivent s'appuyer sur l'écosystème d'autres pour atteindre massivement les utilisateurs. Dans les trois prochaines années…