Amazon Web Services (AWS) a lancé une nouvelle stratégie qui redéfinit fondamentalement l'exploitation de Kubernetes. La société a annoncé le 1er (heure locale) “Amazon EKS Capabilities”, introduisant un ensemble d'outils Kubernetes entièrement gérés qui répondent à l'explosion des charges de travail AI. Cette fonctionnalité se concentre sur l'intégration directe d'outils Open Source populaires dans le plan de contrôle EKS, afin d'améliorer la productivité des développeurs et de Goutte la complexité opérationnelle de la plateforme.
Le directeur des ingénieries de conteneurs d'AWS, Eswar Varma, a déclaré : “Actuellement, les développeurs passent 70 % de leur temps à gérer l'infrastructure”, “Les capacités d'EKS visent à alléger ce fardeau pour permettre aux développeurs de se concentrer sur leur travail essentiel”. Il a ajouté : “Kubernetes est désormais le tableau de bord de contrôle fondamental pour les charges de travail AI, l'utilisation des GPU double chaque année.”
Les fonctionnalités clés publiées cette fois-ci comprennent trois éléments. Tout d'abord, il s'agit d'un service entièrement géré pour 'Argo CD', un outil de déploiement déclaratif très apprécié en tant que méthode GitOps. AWS sera directement responsable de l'installation, de la mise à niveau, du maintien de la haute disponibilité et de l'extension de cet outil. Deuxièmement, il y a 'AWS Controllers for Kubernetes', qui permet aux clients de contrôler les ressources AWS de manière native via Kubernetes. La troisième fonctionnalité est 'Kubernetes Resource Orchestrator', qui permet de modéliser les ressources Kubernetes sous forme de paquets pour une réutilisation. Cela est très utile pour simplifier la configuration de combinaisons de ressources complexes, et est également proposé sous forme entièrement gérée.
Il convient de noter que le modèle opérationnel des capacités EKS est tel que les clients n'ont pas besoin de construire séparément des pipelines GitOps ou de concevoir leur propre couche d'orchestration, toutes les fonctionnalités fonctionnent au sein du compte de service détenu par AWS. Les politiques IAM ou l'intégration SSO sont gérées par le centre d'identité AWS, l'équipe de plateforme du client peut se concentrer sur la normalisation et la gestion des ressources de cluster.
Eswar Vala a souligné que le développement avancé de la technologie des conteneurs et de l'écosystème Kubernetes au cours de la dernière décennie est devenu la base de l'infrastructure AI, et a prédit que la structure centrée sur les agents sera renforcée à l'avenir. “Pour faire fonctionner de nombreux agents AI simultanément, il faut des environnements isolés les uns des autres”, “il pourrait même y avoir de nouvelles frontières au-delà des conteneurs.”
AWS a déjà publié plusieurs fonctionnalités préliminaires pour se préparer à cette transformation. Cela inclut 'EKS Auto Mode' qui prend en charge la configuration automatique des GPU, 'Karpenter' pour l'extension automatique des clusters CPU/GPU, 'EKS Ultra Cluster' qui prend en charge jusqu'à 100 000 nœuds, ainsi que l'assistant de résolution de problèmes basé sur l'IA 'Amazon Q', etc.
Les capacités d'Amazon EKS sont actuellement disponibles dans toutes les régions AWS commerciales, avec un modèle de facturation basé sur l'utilisation et sans frais minimum distinct.
La direction stratégique proposée par AWS n'est pas simplement une addition de fonctionnalités, mais vise à transformer Kubernetes en “plateforme d'opérations cloud centrée sur l'IA”. En intégrant GitOps, les API de ressources, l'évolutivité GPU à grande échelle et le dépannage basé sur l'IA dans un environnement de gestion standardisé, son ambition est de le positionner comme le cœur de l'infrastructure AI pour la prochaine décennie. Eswar Vala a souligné : “Les capacités EKS deviendront la base pour ouvrir la prochaine génération de l'ère de l'IA grâce à une infrastructure native de conteneurs automatisée.”
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
AWS, a lancé 'EKS Capabilities' pour l'ère de l'IA... permettant une transformation complète en mode Complice de Kubernetes.
Amazon Web Services (AWS) a lancé une nouvelle stratégie qui redéfinit fondamentalement l'exploitation de Kubernetes. La société a annoncé le 1er (heure locale) “Amazon EKS Capabilities”, introduisant un ensemble d'outils Kubernetes entièrement gérés qui répondent à l'explosion des charges de travail AI. Cette fonctionnalité se concentre sur l'intégration directe d'outils Open Source populaires dans le plan de contrôle EKS, afin d'améliorer la productivité des développeurs et de Goutte la complexité opérationnelle de la plateforme.
Le directeur des ingénieries de conteneurs d'AWS, Eswar Varma, a déclaré : “Actuellement, les développeurs passent 70 % de leur temps à gérer l'infrastructure”, “Les capacités d'EKS visent à alléger ce fardeau pour permettre aux développeurs de se concentrer sur leur travail essentiel”. Il a ajouté : “Kubernetes est désormais le tableau de bord de contrôle fondamental pour les charges de travail AI, l'utilisation des GPU double chaque année.”
Les fonctionnalités clés publiées cette fois-ci comprennent trois éléments. Tout d'abord, il s'agit d'un service entièrement géré pour 'Argo CD', un outil de déploiement déclaratif très apprécié en tant que méthode GitOps. AWS sera directement responsable de l'installation, de la mise à niveau, du maintien de la haute disponibilité et de l'extension de cet outil. Deuxièmement, il y a 'AWS Controllers for Kubernetes', qui permet aux clients de contrôler les ressources AWS de manière native via Kubernetes. La troisième fonctionnalité est 'Kubernetes Resource Orchestrator', qui permet de modéliser les ressources Kubernetes sous forme de paquets pour une réutilisation. Cela est très utile pour simplifier la configuration de combinaisons de ressources complexes, et est également proposé sous forme entièrement gérée.
Il convient de noter que le modèle opérationnel des capacités EKS est tel que les clients n'ont pas besoin de construire séparément des pipelines GitOps ou de concevoir leur propre couche d'orchestration, toutes les fonctionnalités fonctionnent au sein du compte de service détenu par AWS. Les politiques IAM ou l'intégration SSO sont gérées par le centre d'identité AWS, l'équipe de plateforme du client peut se concentrer sur la normalisation et la gestion des ressources de cluster.
Eswar Vala a souligné que le développement avancé de la technologie des conteneurs et de l'écosystème Kubernetes au cours de la dernière décennie est devenu la base de l'infrastructure AI, et a prédit que la structure centrée sur les agents sera renforcée à l'avenir. “Pour faire fonctionner de nombreux agents AI simultanément, il faut des environnements isolés les uns des autres”, “il pourrait même y avoir de nouvelles frontières au-delà des conteneurs.”
AWS a déjà publié plusieurs fonctionnalités préliminaires pour se préparer à cette transformation. Cela inclut 'EKS Auto Mode' qui prend en charge la configuration automatique des GPU, 'Karpenter' pour l'extension automatique des clusters CPU/GPU, 'EKS Ultra Cluster' qui prend en charge jusqu'à 100 000 nœuds, ainsi que l'assistant de résolution de problèmes basé sur l'IA 'Amazon Q', etc.
Les capacités d'Amazon EKS sont actuellement disponibles dans toutes les régions AWS commerciales, avec un modèle de facturation basé sur l'utilisation et sans frais minimum distinct.
La direction stratégique proposée par AWS n'est pas simplement une addition de fonctionnalités, mais vise à transformer Kubernetes en “plateforme d'opérations cloud centrée sur l'IA”. En intégrant GitOps, les API de ressources, l'évolutivité GPU à grande échelle et le dépannage basé sur l'IA dans un environnement de gestion standardisé, son ambition est de le positionner comme le cœur de l'infrastructure AI pour la prochaine décennie. Eswar Vala a souligné : “Les capacités EKS deviendront la base pour ouvrir la prochaine génération de l'ère de l'IA grâce à une infrastructure native de conteneurs automatisée.”