Judge supports Anthropic, prohibiting the Department of Defense from penalizing Claude with a "supply chain risk label."

動區BlockTempo

Le juge fédéral de Californie, Rita Lin, a délivré une ordonnance préliminaire le 26 mars, bloquant indéfiniment l’étiquette de risque de chaîne d’approvisionnement du Pentagone sur Anthropic. Le jugement de 43 pages souligne que cette action viole le Premier Amendement et les droits à une procédure régulière, et critique sévèrement cette mesure comme étant une forme classique de représailles illégales au titre du Premier Amendement.
(Résumé : Anthropic pourrait entrer en bourse dès le T4 ! Valorisation à 380 milliards de dollars, en concurrence avec OpenAI sur le timing de l’IPO)
(Contexte : Rapport détaillé sur l’indice économique d’Anthropic AI : La fréquence des flux de travail de trading automatisé a doublé, Claude devient de l’outil à assistant de vie)

Table des matières

Toggle

  • Deux lignes rouges, déclenchement du conflit
  • Étiquette sans précédent, démontée par le juge
  • Hegseth se heurter à un mur, une victoire emblématique pour les entreprises d’IA

Un jugement de 43 pages a mis un coup d’arrêt à la revanche du Pentagone. Le juge fédéral de Californie, Rita Lin, a délivré une ordonnance préliminaire le 26, bloquant indéfiniment l’étiquette de « risque de chaîne d’approvisionnement » du ministère de la Défense sur la société d’IA Anthropic, ainsi que l’ordre de couper les relations commerciales connexes aux agences fédérales.

Le juge Lin a utilisé un langage sévère dans son jugement, affirmant que les actions du Pentagone étaient inconstitutionnelles : « Aucune disposition des règlements en vigueur ne soutient ce concept orwellien (se référant à un gouvernement surpuissant, manipulant le langage ou effaçant l’histoire) selon lequel une entreprise américaine serait étiquetée comme un ennemi potentiel ou un perturbateur simplement pour avoir exprimé des opinions divergentes vis-à-vis du gouvernement. »

Lin a également annoncé que le jugement prendrait effet une semaine plus tard, donnant un délai au gouvernement pour faire appel.

Deux lignes rouges, déclenchement du conflit

Le déclencheur de cette confrontation est constitué des deux lignes rouges que Anthropic a établies dans les termes du contrat pour le modèle Claude AI : l’utilisation de Claude pour des systèmes d’armement autonomes est interdite, tout comme l’utilisation pour une surveillance de masse à l’intérieur du pays.

Ce que le Pentagone voulait, c’était un accès illimité à « toutes les utilisations légales » de Claude, en particulier dans des scénarios de guerre. Le directeur technique du ministère de la Défense, Emil Michael, a souligné dans une interview avec CNBC plus tôt ce mois-ci : « Nous ne pouvons pas permettre à une entreprise ayant des préférences politiques différentes, et intégrant ces préférences dans le modèle, de polluer la chaîne d’approvisionnement, faisant en sorte que nos soldats utilisent des armes, des gilets pare-balles et des équipements de protection inefficaces. »

Cependant, Anthropic est resté ferme et a insisté sur le fait que ses protections contractuelles relevaient de la liberté d’expression protégée. Après un échec des négociations entre les deux parties, le secrétaire à la Défense, Pete Hegseth, a mis en place en février une mesure sans précédent : étiqueter Anthropic comme un risque de chaîne d’approvisionnement et émettre un ordre conjoint avec Trump, demandant à toutes les agences fédérales de couper les relations commerciales avec les entreprises collaborant avec Anthropic.

Étiquette sans précédent, démontée par le juge

Cette étiquette de risque de chaîne d’approvisionnement n’avait auparavant été appliquée qu’à des entreprises supposées liées à des adversaires étrangers comme la Chine, et son application à une entreprise d’IA américaine est un précédent historique.

Anthropic soutient que cette étiquette a détruit sa réputation et menacé des contrats gouvernementaux valant des centaines de millions de dollars, et a immédiatement intenté une action en justice devant la cour fédérale de San Francisco le 9 mars.

Lin a directement exposé les véritables motivations du Pentagone dans son jugement : « L’objectif de ces mesures larges ne semble pas viser les intérêts de sécurité nationale que le gouvernement prétend défendre. Les documents du ministère de la Défense montrent que la raison pour laquelle Anthropic a été classé comme un risque de chaîne d’approvisionnement est qu’il a adopté une attitude hostile à travers les médias. » Elle a ajouté :

« Punir Anthropic en exposant la position d’approvisionnement du gouvernement au public est un exemple typique de représailles illégales au titre du Premier Amendement. »

Cela signifie que : lorsque le gouvernement prend une décision administrative, il peut sembler avoir d’autres raisons, mais la motivation réelle est de punir Anthropic pour ses déclarations ou positions antérieures.

Anthropic a salué le jugement, un porte-parole a déclaré : « Nous remercions la cour pour sa réactivité et sommes heureux que la cour reconnaisse qu’Anthropic a de fortes chances de gagner sur le fond. L’objectif de ce procès est de protéger Anthropic, nos clients et partenaires, mais notre priorité reste de collaborer de manière constructive avec le gouvernement pour garantir que tous les Américains puissent bénéficier d’une IA sûre et fiable. »

Hegseth se heurter à un mur, une victoire emblématique pour les entreprises d’IA

Ce n’est pas la première fois que le secrétaire à la Défense Hegseth rencontre des obstacles devant le tribunal. Plus tôt ce mois-ci, un juge fédéral à Washington D.C. a statué que ses restrictions imposées à plusieurs journalistes constituaient une violation du Premier Amendement ; en février, un autre juge a estimé qu’il avait également violé la Constitution en réprimant les propos d’un sénateur démocrate.

L’importance de cette affaire dépasse le simple résultat d’une entreprise, elle trace une ligne pour les entreprises d’IA : le gouvernement peut demander un accès, mais ne peut contraindre les entreprises à renoncer à leurs protections éthiques intégrées ; en même temps, les entreprises exprimant publiquement leur position sont protégées par la Constitution et ne peuvent pas être utilisées comme une monnaie d’échange pour une étiquette de « risque de chaîne d’approvisionnement ».

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire