#TrumpordersfederalbanonAnthropicAI Este es un escalamiento significativo en la relación entre "Gran Tecnología" y el gobierno federal. El viernes 27 de febrero de 2026, el presidente Trump emitió una directiva para que todas las agencias federales dejaran de usar los productos de Anthropic, tras un enfrentamiento de alto riesgo sobre las salvaguardas de IA militar. La disputa principal: "Líneas rojas" vs. "Uso legal" La confrontación se centra en dos salvaguardas específicas de seguridad que el CEO de Anthropic, Dario Amodei, se negó a renunciar para el Pentágono: Vigilancia doméstica masiva: Anthropic argumentó que la capacidad de la IA para agregar "datos dispersos, individualmente inocuos" crea riesgos novedosos para las libertades civiles que las leyes actuales no han abordado aún. Armas totalmente autónomas: la compañía sostiene que los modelos de frontera actuales aún no son lo suficientemente confiables para tomar decisiones letales de orientación sin supervisión humana. El Pentágono, liderado por el Secretario de Defensa Pete Hegseth, exigió "acceso completo y sin restricciones" para todos los "propósitos legales", argumentando que las empresas privadas no deberían dictar la política militar ni las decisiones operativas. La respuesta federal Orden Ejecutiva: El presidente Trump ordenó una suspensión inmediata del uso de la tecnología de Anthropic en todas las agencias federales, calificando la postura de la compañía como "ideológica" y "poco patriótica". Riesgo para la seguridad nacional: El Secretario Hegseth designó a Anthropic como un "riesgo en la cadena de suministro para la seguridad nacional". Período de transición: Mientras que la prohibición para la mayoría de las agencias es inmediata, el Departamento de Defensa tiene un plazo de 6 meses para transferir sus sistemas existentes—incluido el entorno clasificado "Claude Gov"—a otros proveedores. Anthropic ha prometido impugnar la designación de "riesgo en la cadena de suministro" en los tribunales, calificándola de "legalmente insostenible" y "retaliatoria". Argumentan que el Secretario carece de la autoridad para prohibir a los contratistas de defensa usar Claude para sus clientes no gubernamentales. A pocas horas de que venciera el plazo, OpenAI anunció un nuevo acuerdo para desplegar sus modelos en las redes clasificadas del Pentágono. El CEO Sam Altman afirmó que su acuerdo incluye un lenguaje específico sobre la responsabilidad humana en el uso de la fuerza, cubriendo efectivamente la brecha dejada por Anthropic. A pesar de la prohibición, surgieron informes el 1 de marzo de que Claude todavía estaba siendo utilizado por el ejército de EE. UU. para informar ataques aéreos en Irán, ilustrando cuán profundamente integrada ya estaba la tecnología. La medida ha provocado ondas de choque en Silicon Valley, con algunos expertos calificándola como un "asesinato corporativo intentado" y otros viéndolo como un paso necesario para que EE. UU. gane la carrera armamentística de IA sin quedar "tomado como rehén" por las juntas de ética tecnológica. ‍$BTC $GT $ETH

BTC-2,04%
GT-3,22%
ETH-3,94%
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Incluye contenido generado por IA
  • Recompensa
  • 5
  • Republicar
  • Compartir
Comentar
0/400
Yunnavip
· Hace6m
GOGOGO 2026 👊
Ver originalesResponder0
Amelia1231vip
· hace1h
Feliz Año Nuevo 🧨
Ver originalesResponder0
FatYa888vip
· hace1h
Feliz Año Nuevo 🧨
Ver originalesResponder0
Ryakpandavip
· hace1h
Carrera de 2026 👊
Ver originalesResponder0
ybaservip
· hace2h
Hacia La Luna 🌕
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)