Introduction
Veuillez entrer le texte source à traduire.
Dans l’ère numérique, l’intelligence artificielle (IA) est devenue une force clé pour promouvoir l’innovation technologique et le progrès social. Le développement de l’IA n’est pas seulement une avancée technologique, mais aussi une extension de l’intelligence humaine. L’IA a été le sujet le plus chaud dans l’industrie du capital-risque et les marchés financiers au cours de la période récente.
Veuillez entrer le texte source à traduire.
Avec le développement de la technologie de la chaîne de blocs, l’IA décentralisée est apparue. Dans cet article, nous expliquerons la définition et l’architecture de l’IA décentralisée, ainsi que la façon dont elle peut interagir de manière synergique avec l’industrie de l’intelligence artificielle.
Veuillez entrer le texte source à traduire.
La définition et l’architecture de l’IA décentralisée
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
L’IA décentralisée utilise des ressources de calcul et de stockage de données décentralisées pour former et utiliser des modèles d’IA de manière distribuée, améliorant ainsi la confidentialité et la sécurité. Son architecture principale comprend quatre couches :
Veuillez entrer le texte source à traduire.
• Couche de modèle :soutenir le développement, le partage et la transaction décentralisés de modèles d’IA, stimuler la collaboration et l’innovation à l’échelle mondiale. Des projets représentatifs de cette couche comprennent Bittensor, qui utilise la technologie de la blockchain pour créer une plateforme mondiale de partage et de collaboration de modèles d’IA.
Veuillez entrer le texte source à traduire.
• Couche d’entraînement : En utilisant des contrats intelligents et des technologies décentralisées, il est possible de réduire les coûts de formation des modèles d’IA, de simplifier les processus et d’améliorer l’efficacité de la formation.** Le défi de cette couche réside dans la manière de tirer parti efficacement des ressources de calcul distribuées pour une formation de modèle efficace.
Veuillez entrer le texte source à traduire.
• Couche de données: Utilisation de la technologie de la blockchain pour stocker et gérer les données, garantir la sécurité et l’intégrité des données, tout en donnant aux utilisateurs un contrôle total sur leurs données. Des applications telles que les marchés de données décentralisés utilisent cette couche pour faciliter les transactions transparentes et la confirmation de propriété des données.
Veuillez entrer le texte source à traduire.
• Couche de puissance de calcul : Fournit des ressources de calcul distribuées, prend en charge l’entraînement et l’inférence efficaces des modèles d’IA grâce à une plateforme de calcul GPU décentralisée et une prise en charge de la bande passante. Les avancées technologiques à ce niveau, telles que le calcul en périphérie et le réseau GPU distribué, offrent de nouvelles solutions pour l’entraînement et l’inférence des modèles d’IA.
Veuillez entrer le texte source à traduire.
Projet représentant l’IA décentralisée
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Démêler l’industrie de l’IA décentralisée : niveau du modèle
Veuillez entrer le texte source à traduire.
Couche de modèle : le nombre de paramètres des grands modèles a augmenté de manière exponentielle et les performances du modèle ont été considérablement améliorées, mais les avantages de l’extension de la taille du modèle diminuent progressivement. Cette tendance nous oblige à repenser l’orientation des modèles d’IA et la manière de réduire les coûts et la consommation de ressources tout en maintenant les performances.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
Le développement des grands modèles d’IA suit la ‘loi de l’échelle’, c’est-à-dire qu’il existe une certaine relation entre les performances du modèle et la taille des paramètres, la taille de l’ensemble de données et la quantité de calculs.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Lorsque le modèle est étendu à une certaine échelle, ses performances dans des tâches spécifiques augmentent soudainement de manière significative. Avec l’augmentation du nombre de paramètres de grands modèles, l’amélioration des performances du modèle diminue progressivement. Comment équilibrer la taille des paramètres et les performances du modèle sera la clé du développement futur.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Nous constatons que la concurrence des prix des API des grands modèles d’IA s’intensifie, de nombreux fournisseurs réduisant leurs prix pour augmenter leur part de marché. Cependant, avec l’homogénéité des performances des grands modèles, la durabilité des revenus des API est également remise en question. Comment maintenir une grande fidélité des utilisateurs et augmenter les revenus sera un grand défi à l’avenir.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
L’application des modèles côté client sera réalisée en réduisant la précision des données et en utilisant une architecture de modèle d’experts mixtes (MoE). La technologie de quantification des modèles peut compresser les données à virgule flottante sur 32 bits en 8 bits, ce qui permet de réduire considérablement la taille du modèle et la consommation de mémoire. De cette manière, les modèles peuvent être exécutés efficacement sur les appareils côté client, ce qui favorise une plus large adoption de la technologie de l’IA.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Résumé: La blockchain aide à améliorer la transparence, la collaboration et la participation des utilisateurs dans la couche de modèle de l’IA.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Peignage centralisé de l’industrie de l’IA : couche d’entraînement
Veuillez entrer le texte source à traduire.
Couche d’entraînement : L’entraînement de modèles volumineux nécessite une communication à haute bande passante et à faible latence, et il est possible d’expérimenter des modèles volumineux sur des réseaux de puissance de calcul décentralisés. Le défi à ce niveau réside dans l’optimisation de la répartition des ressources de communication et de calcul pour réaliser un entraînement de modèles plus efficace.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Les réseaux de puissance décentralisée ont un certain potentiel dans la formation de grands modèles. Malgré le défi de la surcharge de communication, l’efficacité de l’entraînement peut être considérablement améliorée en optimisant les algorithmes d’ordonnancement et en compressant les données de transmission. Cependant, surmonter les retards de réseau et les goulots d’étranglement de la transmission des données dans un environnement réel reste un défi majeur pour la formation décentralisée.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Pour résoudre le goulot d’étranglement de la formation de grands modèles dans les réseaux de puissance décentralisée, nous pouvons utiliser des techniques telles que la compression des données, l’optimisation de la planification et les mises à jour et synchronisations locales. Ces méthodes permettent de réduire les coûts de communication, d’améliorer l’efficacité de la formation et de faire des réseaux de puissance décentralisée un choix viable pour la formation de grands modèles.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
La machine d’apprentissage à connaissance nulle (zkML) combine les preuves à connaissance nulle et les techniques d’apprentissage automatique, permettant ainsi la validation et l’inférence des modèles sans exposer les données d’entraînement et les détails du modèle. Cette technologie est particulièrement adaptée aux industries qui exigent une confidentialité des données élevée, telles que la santé et la finance, et permet de garantir la confidentialité des données tout en vérifiant l’exactitude et la fiabilité du modèle d’IA.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Peignage décentralisé de l’industrie de l’IA : couche de données
Veuillez entrer le texte source à traduire.
La confidentialité et la sécurité des données sont devenues un enjeu clé dans le développement de l’IA. Les technologies décentralisées de stockage et de traitement des données fournissent de nouvelles idées pour résoudre ces problèmes.
Veuillez entrer le texte source à traduire.
Le stockage des données, l’indexation des données et l’application des données sont tous des éléments clés pour assurer le bon fonctionnement des systèmes d’IA décentralisés. Les plateformes de stockage décentralisé telles que Filecoin et Arweave offrent de nouvelles solutions en matière de sécurité des données et de protection de la vie privée, tout en réduisant les coûts de stockage.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Étuis de stockage décentralisés :
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
Depuis 2020, la taille de stockage de données d’Arweave a rapidement augmenté, principalement grâce à la demande du marché NFT et des applications Web3. Avec Arweave, les utilisateurs peuvent réaliser un stockage de données permanent décentralisé, résolvant ainsi le problème de stockage à long terme de données.
Le projet AO améliore encore l’écosystème Arweave, en fournissant aux utilisateurs une puissance de calcul plus puissante et un plus large éventail de scénarios d’application.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
Dans cette page, nous comparons les deux projets de stockage décentralisé, Arweave et Filecoin. Arweave réalise un stockage permanent grâce à un paiement unique, tandis que Filecoin adopte un modèle de paiement mensuel, en se concentrant sur la fourniture de services de stockage flexibles. Les deux ont leurs avantages en termes d’architecture technique, d’échelle commerciale et de positionnement sur le marché. Les utilisateurs peuvent choisir la solution qui convient le mieux en fonction de leurs besoins spécifiques.
Veuillez entrer le texte source à traduire.
Décentralisation de l’industrie de l’IA: couche de puissance de calcul
Veuillez entrer le texte source à traduire.
Couche de puissance de calcul : À mesure que la complexité des modèles d’IA augmente, la demande en ressources de calcul augmente également. L’émergence d’un réseau décentralisé de puissance de calcul offre une nouvelle méthode de configuration des ressources pour l’entraînement et l’inférence des modèles d’IA.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
Les réseaux informatiques décentralisés (et les réseaux informatiques spécialisés pour l’entraînement et l’inférence) sont actuellement les domaines les plus actifs et à la croissance la plus rapide sur la voie de la DeAI. Cela est cohérent avec les fournisseurs d’infrastructure du monde réel qui capturent les fruits de la chaîne de valeur de l’IA. Alors que la pénurie de ressources informatiques telles que les GPU se poursuit, les fabricants de périphériques matériels dotés de ressources informatiques se sont lancés dans ce domaine.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Cas d’Aethir :
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Modèle commercial : marché bilatéral de location de puissance de calcul
Veuillez entrer le texte source à traduire.
Le marché de la puissance de calcul décentraliséexploite essentiellement la technologie Web3 pour étendre le concept de calcul en grille à un environnement économiquement incitatif et sans confiance. En incitant les fournisseurs de ressources telles que les CPU et les GPU à contribuer à la puissance de calcul inutilisée dans un réseau décentralisé, il crée un marché de services de puissance de calcul décentralisée de taille raisonnable. Il relie également les demandeurs de ressources de puissance de calcul, tels que les fournisseurs de modèles, pour leur fournir des ressources de puissance de calcul à moindre coût et de manière plus flexible. Le marché de la puissance de calcul décentralisé est également un défi pour les fournisseurs de services cloud centralisés monopolistiques.
Les marchés de puissance de calcul décentralisés peuvent être subdivisés en fonction de leur type de service : général ou spécialisé. Les réseaux de calcul général fonctionnent comme un nuage dispersé et fournissent des ressources de calcul pour diverses applications. Les réseaux de calcul spécialisés sont principalement destinés à des réseaux de calcul spécifiques, sur mesure pour des cas d’utilisation spécifiques. Par exemple, Render Network est un réseau de calcul spécialisé dans la charge de travail de rendu ; Gensyn est un réseau de calcul spécialisé dans la formation de modèles ML ; et io.net est un exemple de réseau de calcul général.
Pour DeAI, l’un des principaux défis de la formation de modèles sur une infrastructure décentralisée est la limitation de la puissance de calcul et de la bande passante à grande échelle, ainsi que la latence élevée due à l’utilisation de matériel hétérogène provenant de fournisseurs du monde entier. Par conséquent, un réseau de calcul d’IA spécialisé peut offrir des fonctionnalités plus adaptées à l’IA qu’un réseau de calcul général. Actuellement, la formation centralisée de modèles d’apprentissage automatique reste le projet le plus efficace et le plus stable, mais cela requiert des ressources financières considérables de la part des parties prenantes du projet.
Veuillez entrer le texte source à traduire.
Conclusion
Veuillez entrer le texte source à traduire.
L’IA décentralisée, en tant que nouvelle tendance technologique émergente, montre progressivement ses avantages en termes de confidentialité des données, de sécurité et de rentabilité. Dans le prochain article, nous explorerons les risques et les défis auxquels l’IA décentralisée est confrontée, ainsi que les orientations futures.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Recherche sur la décentralisationIA : le concept, l’architecture et l’industrie de la décentralisationIA
Introduction Veuillez entrer le texte source à traduire. Dans l’ère numérique, l’intelligence artificielle (IA) est devenue une force clé pour promouvoir l’innovation technologique et le progrès social. Le développement de l’IA n’est pas seulement une avancée technologique, mais aussi une extension de l’intelligence humaine. L’IA a été le sujet le plus chaud dans l’industrie du capital-risque et les marchés financiers au cours de la période récente. Veuillez entrer le texte source à traduire. Avec le développement de la technologie de la chaîne de blocs, l’IA décentralisée est apparue. Dans cet article, nous expliquerons la définition et l’architecture de l’IA décentralisée, ainsi que la façon dont elle peut interagir de manière synergique avec l’industrie de l’intelligence artificielle. Veuillez entrer le texte source à traduire. La définition et l’architecture de l’IA décentralisée Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
L’IA décentralisée utilise des ressources de calcul et de stockage de données décentralisées pour former et utiliser des modèles d’IA de manière distribuée, améliorant ainsi la confidentialité et la sécurité. Son architecture principale comprend quatre couches :
Veuillez entrer le texte source à traduire.
• Couche de modèle : soutenir le développement, le partage et la transaction décentralisés de modèles d’IA, stimuler la collaboration et l’innovation à l’échelle mondiale. Des projets représentatifs de cette couche comprennent Bittensor, qui utilise la technologie de la blockchain pour créer une plateforme mondiale de partage et de collaboration de modèles d’IA.
Veuillez entrer le texte source à traduire.
• Couche d’entraînement : En utilisant des contrats intelligents et des technologies décentralisées, il est possible de réduire les coûts de formation des modèles d’IA, de simplifier les processus et d’améliorer l’efficacité de la formation.** Le défi de cette couche réside dans la manière de tirer parti efficacement des ressources de calcul distribuées pour une formation de modèle efficace.
Veuillez entrer le texte source à traduire.
• Couche de données: Utilisation de la technologie de la blockchain pour stocker et gérer les données, garantir la sécurité et l’intégrité des données, tout en donnant aux utilisateurs un contrôle total sur leurs données. Des applications telles que les marchés de données décentralisés utilisent cette couche pour faciliter les transactions transparentes et la confirmation de propriété des données.
Veuillez entrer le texte source à traduire.
• Couche de puissance de calcul : Fournit des ressources de calcul distribuées, prend en charge l’entraînement et l’inférence efficaces des modèles d’IA grâce à une plateforme de calcul GPU décentralisée et une prise en charge de la bande passante. Les avancées technologiques à ce niveau, telles que le calcul en périphérie et le réseau GPU distribué, offrent de nouvelles solutions pour l’entraînement et l’inférence des modèles d’IA.
Veuillez entrer le texte source à traduire.
Projet représentant l’IA décentralisée
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Démêler l’industrie de l’IA décentralisée : niveau du modèle
Veuillez entrer le texte source à traduire.
Couche de modèle : le nombre de paramètres des grands modèles a augmenté de manière exponentielle et les performances du modèle ont été considérablement améliorées, mais les avantages de l’extension de la taille du modèle diminuent progressivement. Cette tendance nous oblige à repenser l’orientation des modèles d’IA et la manière de réduire les coûts et la consommation de ressources tout en maintenant les performances.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
Le développement des grands modèles d’IA suit la ‘loi de l’échelle’, c’est-à-dire qu’il existe une certaine relation entre les performances du modèle et la taille des paramètres, la taille de l’ensemble de données et la quantité de calculs.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Lorsque le modèle est étendu à une certaine échelle, ses performances dans des tâches spécifiques augmentent soudainement de manière significative. Avec l’augmentation du nombre de paramètres de grands modèles, l’amélioration des performances du modèle diminue progressivement. Comment équilibrer la taille des paramètres et les performances du modèle sera la clé du développement futur.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Nous constatons que la concurrence des prix des API des grands modèles d’IA s’intensifie, de nombreux fournisseurs réduisant leurs prix pour augmenter leur part de marché. Cependant, avec l’homogénéité des performances des grands modèles, la durabilité des revenus des API est également remise en question. Comment maintenir une grande fidélité des utilisateurs et augmenter les revenus sera un grand défi à l’avenir.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
L’application des modèles côté client sera réalisée en réduisant la précision des données et en utilisant une architecture de modèle d’experts mixtes (MoE). La technologie de quantification des modèles peut compresser les données à virgule flottante sur 32 bits en 8 bits, ce qui permet de réduire considérablement la taille du modèle et la consommation de mémoire. De cette manière, les modèles peuvent être exécutés efficacement sur les appareils côté client, ce qui favorise une plus large adoption de la technologie de l’IA.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Résumé: La blockchain aide à améliorer la transparence, la collaboration et la participation des utilisateurs dans la couche de modèle de l’IA.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Peignage centralisé de l’industrie de l’IA : couche d’entraînement
Veuillez entrer le texte source à traduire.
Couche d’entraînement : L’entraînement de modèles volumineux nécessite une communication à haute bande passante et à faible latence, et il est possible d’expérimenter des modèles volumineux sur des réseaux de puissance de calcul décentralisés. Le défi à ce niveau réside dans l’optimisation de la répartition des ressources de communication et de calcul pour réaliser un entraînement de modèles plus efficace.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Les réseaux de puissance décentralisée ont un certain potentiel dans la formation de grands modèles. Malgré le défi de la surcharge de communication, l’efficacité de l’entraînement peut être considérablement améliorée en optimisant les algorithmes d’ordonnancement et en compressant les données de transmission. Cependant, surmonter les retards de réseau et les goulots d’étranglement de la transmission des données dans un environnement réel reste un défi majeur pour la formation décentralisée.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Pour résoudre le goulot d’étranglement de la formation de grands modèles dans les réseaux de puissance décentralisée, nous pouvons utiliser des techniques telles que la compression des données, l’optimisation de la planification et les mises à jour et synchronisations locales. Ces méthodes permettent de réduire les coûts de communication, d’améliorer l’efficacité de la formation et de faire des réseaux de puissance décentralisée un choix viable pour la formation de grands modèles.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
La machine d’apprentissage à connaissance nulle (zkML) combine les preuves à connaissance nulle et les techniques d’apprentissage automatique, permettant ainsi la validation et l’inférence des modèles sans exposer les données d’entraînement et les détails du modèle. Cette technologie est particulièrement adaptée aux industries qui exigent une confidentialité des données élevée, telles que la santé et la finance, et permet de garantir la confidentialité des données tout en vérifiant l’exactitude et la fiabilité du modèle d’IA.
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Peignage décentralisé de l’industrie de l’IA : couche de données
Veuillez entrer le texte source à traduire.
La confidentialité et la sécurité des données sont devenues un enjeu clé dans le développement de l’IA. Les technologies décentralisées de stockage et de traitement des données fournissent de nouvelles idées pour résoudre ces problèmes.
Veuillez entrer le texte source à traduire.
Le stockage des données, l’indexation des données et l’application des données sont tous des éléments clés pour assurer le bon fonctionnement des systèmes d’IA décentralisés. Les plateformes de stockage décentralisé telles que Filecoin et Arweave offrent de nouvelles solutions en matière de sécurité des données et de protection de la vie privée, tout en réduisant les coûts de stockage.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
Étuis de stockage décentralisés :
Veuillez entrer le texte source à traduire.
Veuillez entrer le texte source à traduire.
!
Veuillez entrer le texte source à traduire.
Depuis 2020, la taille de stockage de données d’Arweave a rapidement augmenté, principalement grâce à la demande du marché NFT et des applications Web3. Avec Arweave, les utilisateurs peuvent réaliser un stockage de données permanent décentralisé, résolvant ainsi le problème de stockage à long terme de données.