🙋 Actuellement, l'industrie de l'IA présente une tendance de centralisation sans précédent. Des géants technologiques comme OpenAI et Google contrôlent les modèles d'IA les plus avancés, formant un nouvel "oligopole numérique".
Ces entreprises disposent de milliers de milliards de dollars de capital et de ressources de calcul, mais cela a également entraîné certains problèmes bien connus :
- La boîte noire du flux décisionnel : les utilisateurs ne peuvent pas savoir comment l'IA prend des décisions et si cette décision est effectivement réfléchie du point de vue de l'utilisateur.
- Sortie non objective due à la conformité : en fait, c'est très simple, les entreprises d'IA concernées, selon leur pays, doivent se soumettre à des contrôles de conformité correspondants, ce qui entraîne naturellement une "émotion" politique dans la sortie de contenu.
- La valeur de tout le monde est exploitée : les entreprises B doivent payer pour utiliser le produit, les utilisateurs C doivent payer pour utiliser le produit, mais leurs données rendent l'IA meilleure sans recevoir de compensation.
- L'innovation est ralentie par le pouvoir décisionnel d'un petit nombre de personnes : il est clair que les entreprises derrière les produits d'IA, ainsi qu'un petit nombre de personnes (le conseil d'administration) qui les dirigent, décident de la direction du développement des produits, ce qui limitera la "diversité" de l'IA.
L'émergence de Sentient représente une transformation paradigmatique fondamentale - passant de "IA pour une minorité" à "IA par la communauté, pour la communauté"
En essence, je pense que Sentient fait quelque chose pour l'égalisation de l'IA.
Qu'il s'agisse des droits d'utilisation, de propriété, de décision, de choix de coûts et d'autres droits.
➡️Tout le monde comprend les 4 problèmes ci-dessus, mais comment les résoudre, comment les régler
Sentient a donné sa propre réponse
1. Développement de modèles axés sur la communauté : via le cadre OML (Ouvert, Monétisable, Loyal)
Les formateurs, déployeurs et validateurs des modèles d'IA peuvent tous recevoir des récompenses correspondantes, formant ainsi un mécanisme d'incitation durable.
2. Promouvoir la gouvernance décentralisée : tirer parti des caractéristiques décentralisées de la blockchain pour garantir que l'orientation du développement de l'AGI soit décidée par la communauté.
La communauté décide de l'IA, et non une minorité.
3. Réaliser une répartition équitable de la valeur : briser le modèle « winner takes all » des entreprises d'IA traditionnelles, permettant à chaque contributeur de bénéficier de la croissance de l'économie de l'IA.
💻Où se manifeste l'innovation technologique clé ?
Je pense que GRID et OML sont l'incarnation des résultats d'innovation produit clés.
1. GRID est le plus grand réseau intelligent open source au monde et constitue le cœur technologique de SentientAGI, intégrant plus de 100 composants d'IA.
J'ai fait un petit résumé, vous pouvez le consulter.
2、Cadre OML : technologie de reconnaissance d'empreintes digitales des modèles d'IA
Cette technologie peut intégrer directement la propriété et les valeurs dans les poids du modèle.
Grâce aux primitives cryptographiques et à l'environnement d'exécution de confiance (TEE), assurez-vous que le modèle utilise des méthodes traçables et vérifiables, empêchant l'extraction non autorisée.
Sa valeur commerciale spécifique réside dans la résolution du problème de rentabilité de l'IA open source.
Les développeurs peuvent non seulement partager leurs modèles en toute confiance, mais aussi garantir leur propriété et leurs droits de revenu sur ces modèles.
📖L'équipe a obtenu la reconnaissance de plusieurs articles au NeurIPS.
Tout d'abord, parlons de ce qu'est NeurIPS.
Prenons un exemple : les Oscars dans le domaine de l'IA, ou plus familièrement, les Golden Rooster, Golden Horse et Golden Image dans le domaine du cinéma et de la télévision.
Cette valeur est évidente.
Les 4 articles acceptés couvrent l'identification d'empreintes digitales LLM évolutives (OML), les benchmarks d'évaluation de code résistant à la pollution, les jeux sociaux multi-agents et les primitives de contrôle de sécurité des modèles.
1. Prenons l'exemple de l'OML : le système OML 1.0 développé par SentientAGI peut intégrer 24576 empreintes digitales persistantes et indétectables dans des modèles linguistiques de grande taille, réalisant une augmentation d'échelle de 100 fois par rapport aux solutions existantes.
Oui, c'est 100 fois, vous ne vous êtes pas trompé.
2. Référentiel d'évaluation de code anti-contamination : cela brise la propagande trompeuse de "l'IA dépassant les programmeurs humains" et établit de nouvelles normes pour l'évaluation fiable de l'IA génératrice de code.
Équivalent à promouvoir le développement d'outils de génération de code plus fiables dans un marché de l'ingénierie logicielle de plusieurs milliers de milliards.
3, Jeux sociaux multi-agents : Le papier soumis par Sentient a réalisé la transition d'une référence statique vers un environnement multi-agents adaptatif, résolvant ainsi le problème de l'évaluation traditionnelle qui néglige les dynamiques sociales.
L'IA ne devrait pas seulement servir des scénarios statiques, mais plutôt être capable de faire face de manière indépendante à des scénarios en constante évolution.
4, Primitives de contrôle de la sécurité des modèles : Cet article a une importance significative pour le discours commercial de l'IA, en particulier pour les applications de l'IA dans les secteurs réglementés tels que la santé et la finance.
➡️Avec la technologie comme racine, le produit comme noyau et la décentralisation comme essence, Sentient a prouvé cela pour tous les projets d'IA.
L'IA appartient à l'ensemble de l'humanité.
La technologie est la meilleure preuve de la qualité d'un projet.
IA + Web3 = avenir
IA Pour Vous IA Pour Moi IA pour tous
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
🙋 Actuellement, l'industrie de l'IA présente une tendance de centralisation sans précédent. Des géants technologiques comme OpenAI et Google contrôlent les modèles d'IA les plus avancés, formant un nouvel "oligopole numérique".
Ces entreprises disposent de milliers de milliards de dollars de capital et de ressources de calcul, mais cela a également entraîné certains problèmes bien connus :
- La boîte noire du flux décisionnel : les utilisateurs ne peuvent pas savoir comment l'IA prend des décisions et si cette décision est effectivement réfléchie du point de vue de l'utilisateur.
- Sortie non objective due à la conformité : en fait, c'est très simple, les entreprises d'IA concernées, selon leur pays, doivent se soumettre à des contrôles de conformité correspondants, ce qui entraîne naturellement une "émotion" politique dans la sortie de contenu.
- La valeur de tout le monde est exploitée : les entreprises B doivent payer pour utiliser le produit, les utilisateurs C doivent payer pour utiliser le produit, mais leurs données rendent l'IA meilleure sans recevoir de compensation.
- L'innovation est ralentie par le pouvoir décisionnel d'un petit nombre de personnes : il est clair que les entreprises derrière les produits d'IA, ainsi qu'un petit nombre de personnes (le conseil d'administration) qui les dirigent, décident de la direction du développement des produits, ce qui limitera la "diversité" de l'IA.
L'émergence de Sentient représente une transformation paradigmatique fondamentale - passant de "IA pour une minorité" à "IA par la communauté, pour la communauté"
En essence, je pense que Sentient fait quelque chose pour l'égalisation de l'IA.
Qu'il s'agisse des droits d'utilisation, de propriété, de décision, de choix de coûts et d'autres droits.
➡️Tout le monde comprend les 4 problèmes ci-dessus, mais comment les résoudre, comment les régler
Sentient a donné sa propre réponse
1. Développement de modèles axés sur la communauté : via le cadre OML (Ouvert, Monétisable, Loyal)
Les formateurs, déployeurs et validateurs des modèles d'IA peuvent tous recevoir des récompenses correspondantes, formant ainsi un mécanisme d'incitation durable.
2. Promouvoir la gouvernance décentralisée : tirer parti des caractéristiques décentralisées de la blockchain pour garantir que l'orientation du développement de l'AGI soit décidée par la communauté.
La communauté décide de l'IA, et non une minorité.
3. Réaliser une répartition équitable de la valeur : briser le modèle « winner takes all » des entreprises d'IA traditionnelles, permettant à chaque contributeur de bénéficier de la croissance de l'économie de l'IA.
💻Où se manifeste l'innovation technologique clé ?
Je pense que GRID et OML sont l'incarnation des résultats d'innovation produit clés.
1. GRID est le plus grand réseau intelligent open source au monde et constitue le cœur technologique de SentientAGI, intégrant plus de 100 composants d'IA.
J'ai fait un petit résumé, vous pouvez le consulter.
2、Cadre OML : technologie de reconnaissance d'empreintes digitales des modèles d'IA
Cette technologie peut intégrer directement la propriété et les valeurs dans les poids du modèle.
Grâce aux primitives cryptographiques et à l'environnement d'exécution de confiance (TEE), assurez-vous que le modèle utilise des méthodes traçables et vérifiables, empêchant l'extraction non autorisée.
Sa valeur commerciale spécifique réside dans la résolution du problème de rentabilité de l'IA open source.
Les développeurs peuvent non seulement partager leurs modèles en toute confiance, mais aussi garantir leur propriété et leurs droits de revenu sur ces modèles.
📖L'équipe a obtenu la reconnaissance de plusieurs articles au NeurIPS.
Tout d'abord, parlons de ce qu'est NeurIPS.
Prenons un exemple : les Oscars dans le domaine de l'IA, ou plus familièrement, les Golden Rooster, Golden Horse et Golden Image dans le domaine du cinéma et de la télévision.
Cette valeur est évidente.
Les 4 articles acceptés couvrent l'identification d'empreintes digitales LLM évolutives (OML), les benchmarks d'évaluation de code résistant à la pollution, les jeux sociaux multi-agents et les primitives de contrôle de sécurité des modèles.
1. Prenons l'exemple de l'OML : le système OML 1.0 développé par SentientAGI peut intégrer 24576 empreintes digitales persistantes et indétectables dans des modèles linguistiques de grande taille, réalisant une augmentation d'échelle de 100 fois par rapport aux solutions existantes.
Oui, c'est 100 fois, vous ne vous êtes pas trompé.
2. Référentiel d'évaluation de code anti-contamination : cela brise la propagande trompeuse de "l'IA dépassant les programmeurs humains" et établit de nouvelles normes pour l'évaluation fiable de l'IA génératrice de code.
Équivalent à promouvoir le développement d'outils de génération de code plus fiables dans un marché de l'ingénierie logicielle de plusieurs milliers de milliards.
3, Jeux sociaux multi-agents : Le papier soumis par Sentient a réalisé la transition d'une référence statique vers un environnement multi-agents adaptatif, résolvant ainsi le problème de l'évaluation traditionnelle qui néglige les dynamiques sociales.
L'IA ne devrait pas seulement servir des scénarios statiques, mais plutôt être capable de faire face de manière indépendante à des scénarios en constante évolution.
4, Primitives de contrôle de la sécurité des modèles : Cet article a une importance significative pour le discours commercial de l'IA, en particulier pour les applications de l'IA dans les secteurs réglementés tels que la santé et la finance.
➡️Avec la technologie comme racine, le produit comme noyau et la décentralisation comme essence, Sentient a prouvé cela pour tous les projets d'IA.
L'IA appartient à l'ensemble de l'humanité.
La technologie est la meilleure preuve de la qualité d'un projet.
IA + Web3 = avenir
IA Pour Vous
IA Pour Moi
IA pour tous