¿Un juez bloqueó la etiqueta de cadena de suministro antropica del Pentágono?

Un juez federal ha detenido temporalmente una controvertida disputa de la cadena de suministro de Anthropic, destacando las crecientes tensiones entre el gobierno de Estados Unidos y los principales proveedores de IA.

Juez detiene el esfuerzo del Pentágono para incluir en listas negras a Anthropic

El jueves, un juez federal de California bloqueó temporalmente al Pentágono para etiquetar a Anthropic como un riesgo de la cadena de suministro y ordenó a las agencias federales detener el uso de sus sistemas de IA. La resolución es la última vuelta de tuerca en una disputa que dura un mes, y el asunto sigue sin resolverse, ya que el gobierno ahora tiene siete días para apelar.

Además, Anthropic está presentando un segundo caso para impugnar la misma designación bajo una teoría legal diferente, que aún no ha sido decidida. Hasta que concluyan esos procedimientos, la empresa efectivamente sigue siendo persona non grata en gran parte del gobierno federal, a pesar de la intervención de la jueza Rita Lin.

Una disputa contractual escala hasta convertirse en una guerra cultural de la IA

Los riesgos en el caso han estado claros desde el principio: hasta dónde puede llegar el gobierno castigando a una empresa que se niega a “cooperar” en cuestiones sensibles de política. Dicho esto, Anthropic ha atraído una coalición inusualmente amplia de simpatizantes de alto nivel, incluidos exautores de la política de IA del presidente Donald Trump, que rara vez se alinean con plataformas del Silicon Valley.

Sin embargo, la opinión de 43 páginas de la jueza Rita Lin sugiere que el problema subyacente es, esencialmente, una disputa contractual que nunca necesitó explotar en una guerra cultural más amplia. La jueza encontró que el gobierno eludió los procedimientos establecidos para manejar este tipo de disputas y luego avivó la situación con publicaciones en redes sociales que más tarde contradecían las posturas asumidas en la corte.

El Pentágono, en efecto, señaló que quería una confrontación política superpuesta a la guerra real en Irán, que comenzó apenas horas después de que algunas de las publicaciones clave salieran a la luz. Esta entrelazación de agendas legales, políticas y militares pesó fuertemente en la evaluación del tribunal del registro.

Uso de Claude dentro del Pentágono y tensiones en aumento

Según los documentos presentados ante la corte, el gobierno utilizó a Claude de Anthropic durante 2025 sin plantear quejas significativas. En ese período, la empresa intentó equilibrar su marca como desarrolladora de IA centrada en la seguridad con su papel como contratista de defensa, caminando lo que un escrito describió como una “pasarela de marca”.

Los empleados de defensa que accedieron a Claude a través de Palantir tuvieron que aceptar una política de uso específica del gobierno. En una declaración jurada, Jared Kaplan, cofundador de Anthropic, afirmó que esa política “prohibía la vigilancia masiva de los estadounidenses y la guerra autónoma letal”, aunque no proporcionó el texto completo a la corte. Solo cuando el Pentágono buscó contratar directamente con Anthropic surgieron desacuerdos serios.

Primero tuitear, luego justificar: las amenazas públicas de Trump y Hegseth

Lo que más enojó a la jueza fue que, una vez que la disputa se volvió pública, las acciones del gobierno parecían más un castigo que una simple decisión de cortar vínculos. Además, existía un patrón constante: tuitear primero, abogado después.

El 27 de febrero, el presidente Donald Trump publicó en Truth Social refiriéndose a “Leftwing nutjobs” en Anthropic y ordenando a cada agencia federal dejar de usar su IA. Poco después, el secretario de Defensa, Pete Hegseth, hizo eco de esa postura, diciendo que instruiría al Pentágono para etiquetar a la empresa como un riesgo de la cadena de suministro.

Designar formalmente a una empresa como tal requiere que el Secretario de Defensa siga una secuencia definida de pasos estatutarios. Sin embargo, la jueza Lin encontró que Hegseth no completó esos pasos. Cartas a comités del Congreso, por ejemplo, afirmaban que se habían evaluado medidas menos drásticas y se consideraron imposibles, pero no ofrecían detalles fácticos que respalden esa afirmación.

El gobierno también argumentó que la etiqueta de riesgo de la cadena de suministro era necesaria porque Anthropic podría desplegar un “interruptor de apagado” para deshabilitar sus sistemas. Sin embargo, bajo interrogatorio, sus abogados admitieron que no había evidencia de esa capacidad, según la opinión. Esa contradicción socavó aún más el caso del Pentágono.

Autoridad legal frente a mensajes políticos

La publicación en redes sociales de Hegseth afirmó que “Ningún contratista, proveedor o socio que haga negocios con el ejército de Estados Unidos puede realizar ninguna actividad comercial con Anthropic”. Los propios abogados del gobierno concedieron más tarde el martes que el Secretario, en realidad, no tiene la autoridad para imponer una prohibición tan amplia.

La jueza y los abogados del Departamento de Justicia acordaron que la prohibición general de Hegseth no tenía “ningún efecto legal”. Sin embargo, el tono agresivo de estas publicaciones llevó a la jueza Lin a concluir que Anthropic tenía una queja creíble basada en la Primera Enmienda. El tribunal encontró que los funcionarios efectivamente habían intentado castigar públicamente a la empresa por su “ideología” y su “retórica”, además de por lo que llamaron su “arrogancia” al negarse a llegar a compromisos.

Etiquetar a Anthropic como un riesgo de la cadena de suministro, escribió la jueza, sería equivalente a marcarla como un “saboteador” del gobierno de Estados Unidos. Ella consideró que la evidencia era insuficiente para respaldar esa acusación y, en consecuencia, emitió una orden el jueves pasado que detiene la designación, bloquea al Pentágono para hacerla cumplir y prohíbe al gobierno llevar a cabo las promesas amplias hechas por Hegseth y Trump.

Una sentencia “devastadora” y una segunda demanda en DC

Dean Ball, quien ayudó a elaborar la política de IA en la administración de Trump pero presentó un escrito apoyando a Anthropic, describió la resolución como “una sentencia devastadora para el gobierno”. Dijo que el tribunal encontró que Anthropic probablemente ganará en casi todas sus teorías de que las acciones del gobierno fueron ilegales e inconstitucionales.

Se espera ampliamente que la administración apelar la decisión de California. Al mismo tiempo, Anthropic está presentando un caso separado en Washington, DC, que plantea acusaciones similares pero cita una parte diferente del estatuto que rige los riesgos de la cadena de suministro. Juntos, estos casos podrían definir hasta dónde pueden llegar los funcionarios federales al retaliar contra proveedores de IA cuyas opiniones no les gustan.

Patrón de retórica pública y justificaciones legales “rellenando” después

Los documentos del tribunal describen un patrón constante en el que las declaraciones públicas de altos funcionarios y del presidente no coincidieron con lo que la ley exige en una disputa contractual. Además, los abogados del gobierno tuvieron que construir repetidamente justificaciones legales después de los ataques en redes sociales contra la empresa.

Los líderes del Pentágono y de la Casa Blanca sabían que perseguir la opción más extrema inevitablemente desencadenaría litigios. Anthropic se comprometió públicamente el 27 de febrero a desafiar cualquier etiqueta de riesgo de la cadena de suministro, días antes de que el gobierno presentara formalmente la designación el 3 de marzo. Ese cronograma demuestra que, incluso cuando estalló la guerra en Irán, la alta dirección optó por seguir adelante.

Durante los primeros cinco días del conflicto, los funcionarios supervisaron tanto los ataques militares como la recopilación de evidencia para retratar a Anthropic como un saboteador. Sin embargo, la jueza señaló que el Pentágono podría haber terminado simplemente su relación con la empresa mediante pasos de contratación mucho menos dramáticos y, además, mucho más convencionales.

Consecuencias para Anthropic y la industria más amplia de IA

Incluso si Anthropic finalmente gana ambos casos, la resolución deja claro que Washington todavía tiene formas informales de marginar a la empresa de futuros trabajos con el gobierno. Los contratistas de defensa que dependen del Pentágono para sus ingresos ahora tienen pocos incentivos para asociarse con Anthropic, incluso si nunca se la lista oficialmente como un riesgo de la cadena de suministro.

“Creo que se puede decir con seguridad que existen mecanismos que el gobierno puede usar para ejercer cierta presión sin infringir la ley”, dijo Charlie Bullock, investigador sénior del Institute for Law and AI. Sin embargo, subrayó que mucho depende de cuánto esté comprometida la administración en castigar a Anthropic por esta disputa.

Con base en la evidencia hasta ahora, la administración está dedicando tiempo y atención de alto nivel a ganar lo que equivale a una guerra cultural de la IA. Al mismo tiempo, Claude parece ser lo suficientemente central para las operaciones del Pentágono que el propio presidente Trump dijo que el Departamento de Defensa necesitaba seis meses para descontinuarlo. Esta contradicción socava la narrativa de que la designación de riesgo de la cadena de suministro “anthropic” era puramente sobre seguridad.

Límites del poder del gobierno sobre proveedores de IA

El caso también resalta los esfuerzos de la Casa Blanca por exigir lealtad política y alineación ideológica de las principales empresas de IA. Sin embargo, el conflicto con Anthropic revela los límites de ese poder, al menos cuando las amenazas públicas chocan con las reglas estatutarias de contratación y las protecciones constitucionales.

Además, la disputa envía una señal clara a otros proveedores de IA que desarrollan herramientas para agencias de seguridad nacional. Una retórica pública agresiva puede no sobrevivir al escrutinio judicial si no está respaldada por evidencia y un proceso formal. Los tribunales parecen estar dispuestos a vigilar esa línea con mayor cercanía a medida que la IA se vuelve parte integral de las operaciones de defensa de Estados Unidos.

Por ahora, Anthropic permanece en una posición precaria: fortalecida legalmente por una decisión inicial sólida, pero vulnerable comercialmente a una lista negra silenciosa en todo el ecosistema de defensa. El resultado de sus casos paralelos no solo determinará su futuro, sino también los contornos del poder del gobierno en la era de la IA.

Si tienes información sobre el uso militar de la IA, puedes compartirla de forma segura mediante Signal (nombre de usuario jamesodonnell.22).

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado