La semaine dernière, un juge fédéral à San Francisco a bloqué le Pentagone et l’administration Trump de faire appliquer une désignation de sécurité nationale contre Anthropic, l’entreprise d’intelligence artificielle (IA) qui a refusé de supprimer les restrictions de sécurité de ses modèles Claude.
La juge de district américaine Rita F. Lin a émis l’injonction préliminaire le 26 mars, constatant que les actions du gouvernement contre Anthropic violaient probablement le Premier Amendement, niaient à l’entreprise un procès équitable et dépassaient l’autorité statutaire en vertu de la Loi sur la procédure administrative. La décision est suspendue pendant sept jours, donnant à l’administration jusqu’à environ le 2 avril pour déposer un appel d’urgence auprès du Neuvième Circuit.
Le litige a commencé lorsque le Département de la Défense (DoD) a demandé un accès illimité à Claude pour un usage fédéral. Anthropic avait longtemps maintenu deux exceptions dans sa politique d’utilisation acceptable : Claude ne serait pas utilisé pour la surveillance domestique de masse des citoyens américains ou pour des systèmes d’armement autonomes létaux opérant sans supervision humaine significative. Le DoD a exigé que ces garde-fous soient supprimés. Anthropic a refusé.
Les négociations ont échoué fin 2025. Le conflit est devenu public par le biais des déclarations écrites du PDG Dario Amodei et d’un essai exposant la position de l’entreprise sur la sécurité de l’IA. Les responsables du DoD ont considéré les restrictions comme une tentative d’Anthropic de dicter la politique gouvernementale.
Le 27 février 2026, le président Trump a posté sur Truth Social, ordonnant à toutes les agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic, avec une période de suppression de six mois. Le secrétaire à la Défense Pete Hegseth a annoncé une désignation de risque de chaîne d’approvisionnement en vertu de 10 U.S.C. § 3252 — un statute précédemment appliqué à des adversaires étrangers — qualifiant Anthropic de risque potentiel de “sabotage” et de “subversion.”
Plusieurs entrepreneurs fédéraux ont suspendu ou annulé des contrats avec l’entreprise suite à cette désignation. Anthropic a répondu et a intenté une action en justice le 9 mars dans le district nord de la Californie, alléguant des représailles, des violations du procès équitable et des violations de la APA. Une action connexe a été déposée dans le circuit de D.C.
Dans un ordre de 43 pages, la juge Lin a interdit au DoD, à 17 autres agences fédérales et au secrétaire Hegseth de mettre en œuvre ou d’appliquer l’une des actions contestées. Elle a ordonné la restauration du statu quo, permettant à Anthropic de continuer ses contrats et partenariats fédéraux existants.
Lin a écrit que la conduite du gouvernement représentait “une représaille illégale classique au titre du Premier Amendement.” Elle a noté que le timing des actions, ainsi que les communications internes du gouvernement faisant référence à la “rhétorique”, “l’arrogance” et “l’intimidation” d’Anthropic, pointaient directement vers une intention punitive liée aux déclarations publiques de l’entreprise sur la sécurité de l’IA.
Concernant le procès équitable, le tribunal a constaté que le gouvernement avait dépouillé Anthropic d’intérêts de liberté dans sa réputation et ses opérations commerciales sans fournir d’avis de privation préalable ou d’audience. Lin a également constaté que la désignation statutaire n’avait jamais été appliquée auparavant à une entreprise américaine dans ces circonstances et que la vérification préalable du gouvernement d’Anthropic.
Cela inclut les habilitations de sécurité Top Secret, l’autorisation FedRAMP et des contrats d’une valeur allant jusqu’à 200 millions de dollars — ne montraient aucune véritable préoccupation en matière de sécurité. “Rien dans le statute régissant ne soutient la notion orwellienne qu’une entreprise américaine puisse être qualifiée de potentiel adversaire et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement,” a écrit Lin.
Le tribunal a trouvé un préjudice financier potentiel pour Anthropic de plusieurs centaines de millions à des milliards de dollars, ainsi qu’un dommage à la réputation que des réparations monétaires ne pourraient pas entièrement réparer. Les mémoires d’Amici de dirigeants militaires et de chercheurs en IA ont cité des risques pour la préparation à la défense et le débat plus large sur la sécurité de l’IA.
Anthropic a déclaré qu’elle était reconnaissante pour la rapidité de la cour et qu’elle prévoyait de continuer à travailler avec le gouvernement fédéral. L’entreprise a déclaré que son objectif restait d’assurer aux Américains un accès à une IA sûre et fiable.
L’injonction ne résout pas le litige contractuel sous-jacent. Aucune décision finale sur le fond n’a été rendue. Un challenge séparé dans le circuit de D.C. reste en attente, et l’administration conserve la possibilité de faire appel.