Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El Pentágono define oficialmente a Anthropic como un ‘riesgo en la cadena de suministro’
La administración de Trump está cumpliendo con su amenaza de designar a la empresa de inteligencia artificial Anthropic como un riesgo en la cadena de suministro en una medida sin precedentes que podría obligar a otros contratistas gubernamentales a dejar de usar el chatbot de IA Claude.
Video recomendado
El Pentágono dijo en un comunicado el jueves que ha “informado oficialmente a la dirección de Anthropic que la empresa y sus productos son considerados un riesgo en la cadena de suministro, con efecto inmediato.”
La decisión pareció cerrar la oportunidad de negociaciones adicionales con Anthropic, casi una semana después de que el presidente Donald Trump y el secretario de Defensa Pete Hegseth acusaran a la empresa de poner en peligro la seguridad nacional.
Trump y Hegseth anunciaron una serie de amenazas de castigos el pasado viernes, en vísperas de la guerra con Irán, después de que el CEO de Anthropic, Dario Amodei, se negara a retroceder por preocupaciones de que los productos de la empresa podrían ser utilizados para vigilancia masiva de estadounidenses o armas autónomas.
Amodei dijo en un comunicado el jueves que “no creemos que esta acción sea legalmente sólida, y no vemos otra opción que impugnarla en los tribunales.”
El comunicado del Pentágono afirmó que “esto ha sido sobre un principio fundamental: que las fuerzas armadas puedan usar la tecnología para todos los fines legales. El ejército no permitirá que un proveedor se inserte en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en riesgo a nuestros combatientes.”
Amodei contrargumentó que las excepciones estrechas que Anthropic buscaba para limitar la vigilancia y las armas autónomas “se relacionan con áreas de uso de alto nivel, y no con decisiones operativas.”
Dijo que en los últimos días hubo “conversaciones productivas” con el Pentágono sobre si podrían seguir usando Claude o establecer una “transición suave” si no se llegaba a un acuerdo. Trump dio a las fuerzas armadas seis meses para eliminar gradualmente a Claude, que ya está ampliamente integrado en plataformas militares y de seguridad nacional. Amodei afirmó que es una prioridad asegurarse de que los combatientes no queden “desprovistos de herramientas importantes en medio de operaciones de combate importantes.”
Algunos contratistas militares ya estaban cortando vínculos con Anthropic, una estrella en ascenso en la industria tecnológica que vende Claude a diversas empresas y agencias gubernamentales. Lockheed Martin dijo que “seguirá la dirección del Presidente y del Departamento de Guerra” y buscará otros proveedores de modelos de lenguaje grandes.
“Esperamos impactos mínimos ya que Lockheed Martin no depende de ningún proveedor único de LLM para ninguna parte de nuestro trabajo,” afirmó la compañía.
Aún no está claro cómo interpretará el Departamento de Defensa el alcance de la designación de riesgo. Amodei dijo que una notificación que Anthropic recibió del Pentágono el miércoles muestra que solo se aplica al uso de Claude por parte de los clientes como una “parte directa” de sus contratos militares.
Microsoft afirmó que sus abogados estudiaron la regla y que la compañía “puede seguir trabajando con Anthropic en proyectos no relacionados con la defensa.”
El Pentágono recibe críticas por su decisión
La decisión del Pentágono de aplicar una regla diseñada para abordar amenazas en la cadena de suministro planteadas por adversarios extranjeros fue recibida con amplias críticas. Los códigos federales han definido el riesgo en la cadena de suministro como un “riesgo de que un adversario pueda sabotear, introducir maliciosamente funciones no deseadas o de otra manera subvertir” un sistema para interrumpirlo, degradarlo o espiar.
La senadora Kirsten Gillibrand, demócrata de Nueva York y miembro del Comité de Servicios Armados del Senado y del Comité de Inteligencia del Senado, la calificó como “un uso peligroso de una herramienta destinada a abordar tecnología controlada por adversarios.”
“Esta acción imprudente es miope, autodestructiva y un regalo para nuestros adversarios,” afirmó en un comunicado escrito el jueves.
Neil Chilson, ex jefe de tecnología de la Comisión Federal de Comercio y actual líder en políticas de IA en el Instituto Abundance, dijo que la decisión parece “una sobreextensión masiva que dañaría tanto al sector de IA de EE. UU. como a la capacidad del ejército para adquirir la mejor tecnología para los combatientes estadounidenses.”
Más temprano ese día, un grupo de exfuncionarios de defensa y seguridad nacional envió una carta a los legisladores estadounidenses expresando “serias preocupaciones” sobre la designación.
“El uso de esta autoridad contra una empresa estadounidense es un alejamiento profundo de su propósito original y establece un precedente peligroso,” afirmó la carta, firmada por exfuncionarios y expertos en políticas, incluyendo al ex director de la CIA Michael Hayden y líderes retirados de la Fuerza Aérea, Ejército y Marina.
Agregaron que tal designación está destinada a “proteger a Estados Unidos de infiltraciones por parte de adversarios extranjeros — de empresas sometidas a Beijing o Moscú, no de innovadores estadounidenses que operan de manera transparente bajo el estado de derecho. Aplicar esta herramienta para penalizar a una empresa estadounidense por negarse a eliminar salvaguardas contra vigilancia masiva doméstica y armas completamente autónomas es un error de categoría con consecuencias que van mucho más allá de esta disputa.”
Anthropic experimenta un aumento en descargas de consumidores
Mientras perdía grandes alianzas con contratistas de defensa, Anthropic experimentó un aumento en las descargas de consumidores en la última semana debido a que la gente se solidarizó con su postura moral. La compañía dijo que más de un millón de personas se inscribieron en Claude cada día esta semana, elevándola por encima de ChatGPT de OpenAI y Gemini de Google como la principal aplicación de IA en más de 20 países en la tienda de aplicaciones de Apple.
La disputa con el Pentágono también ha profundizado la amarga rivalidad de Anthropic con OpenAI, que comenzó cuando exlíderes de OpenAI, incluido Amodei, fundaron Anthropic en 2021.
Horas después de que el Pentágono castigara a Anthropic el pasado viernes, OpenAI anunció un acuerdo para reemplazar efectivamente a Anthropic con ChatGPT en entornos militares clasificados.
OpenAI dijo que buscaba protecciones similares contra la vigilancia doméstica y armas completamente autónomas, pero posteriormente tuvo que modificar sus acuerdos, lo que llevó al CEO Sam Altman a decir que no debería haberse apresurado en un acuerdo que “parecía oportunista y descuidado.”
Amodei también expresó arrepentimiento por su propia participación en ese “día difícil para la empresa,” diciendo el jueves que quería “disculparse directamente” por una nota interna que envió al personal de Anthropic, en la que atacaba el comportamiento de OpenAI y sugería que Anthropic estaba siendo castigada por no dar “elogios dictatoriales” a Trump.
Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune del 19 al 20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí, y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.