Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Siete señales para entender la semana de la IA: filtraciones de modelos, motores de código, control de personal
Autor: Tara Tan / StrangeVC
Traducción: 深潮 TechFlow
Introducción de 深潮: El boletín de esta semana es extremadamente denso: siete señales independientes cubren algunas de las tendencias más críticas de la industria de la IA.
Lo más digno de atención es lo siguiente: Anthropic, debido a un error de configuración en CMS, filtró accidentalmente nuevos detalles de su modelo interno con el nombre en clave “Capybara”, cuyo nivel está por encima de Opus.
Texto completo a continuación:
En los últimos meses, con toda seguridad ya hemos superado algún umbral agentic. Lo que antes requería de cuatro a seis semanas para construirse hace cinco años, ahora se completa en menos de cinco minutos. Hace seis meses, con la misma tarea, todavía se tardaba entre una y dos horas y había que depurar en gran medida.
Se trata de una transformación de fase bastante notable, y es posible que todavía no la hayamos digerido por completo. La implosión de la distancia entre las ideas y los productos que funcionan reescribirá toda la industria. Es un cambio escalonado en la forma en que los seres humanos usan herramientas para construir, crear y resolver problemas.
Relacionado con esto, OpenClaw es claramente más estable desde la adquisición por parte de OpenAI. Tiene una ruta clara para convertirse en uno de los proyectos de código abierto más importantes en el ámbito de la IA.
Entramos en el contenido de esta semana.
La filtración de Claude Mythos de Anthropic revela el nuevo nivel del modelo
Anthropic, debido a un error de configuración en CMS, expuso accidentalmente detalles de un modelo no publicado llamado Claude Mythos. El borrador filtrado describe un nuevo nivel de “Capybara”, por encima de Opus, con avances significativos en capacidades de programación, razonamiento y ciberseguridad. Anthropic confirmó que está probando este modelo con clientes de acceso temprano, y lo describió como “un cambio escalonado” y “el modelo más poderoso construido hasta la fecha”. (Fortune, The Decoder)
Por qué es importante: además del propio modelo, hay dos cosas que merecen más atención. Primero, el borrador filtrado advierte que la capacidad de ciberseguridad de este modelo “supera a la de cualquier otro modelo de IA”, lo que impulsó la trayectoria de las acciones de ciberseguridad en un solo día de operaciones. Segundo, la introducción de un cuarto nivel de modelo (Capybara está por encima de Opus) indica que Anthropic está creando espacio de fijación de precios para clientes empresariales, y no solo un espacio de rendimiento para pruebas de referencia.
Claude Code se está convirtiendo en el motor principal de crecimiento de Anthropic
Claude Code actualmente representa aproximadamente el 4% de todas las contribuciones públicas en GitHub y se estima que para fin de año alcanzará más del 20%. Los ingresos generales de Anthropic se estima que tienen una tasa de ejecución anual de 14 mil millones de dólares; la tasa de ejecución anual de Claude Code por sí sola es de aproximadamente 2.5 mil millones de dólares. Los usuarios de esta herramienta han pasado de ser desarrolladores a usuarios no técnicos, que están aprendiendo comandos de terminal para construir proyectos con ella. (SemiAnalysis, Uncover Alpha, VentureBeat)
Por qué es importante: Claude Code reduce el costo de adquisición de clientes hasta acercarlo a cero mediante la adopción orgánica por parte de desarrolladores. Al extenderse a roles no desarrolladores mediante Cowork, el mercado direccionable se expande muy por encima de los 28 millones de desarrolladores profesionales del mundo.
El Pretext de Cheng Lou: disposición de texto sin depender de CSS
Cheng Lou es uno de los ingenieros de UI más influyentes de la última década (React, ReasonML, Midjourney). Publicó Pretext, un algoritmo de medición de texto puramente en TypeScript que evita por completo CSS, mediciones de DOM y el reordenamiento del navegador. Los efectos de la demostración incluyen: renderizado virtualizado de decenas de miles de cuadros de texto a 120 fps, burbujas de chat compactas con cero píxeles desperdiciados, diseños responsivos de varias columnas tipo revista y arte ASCII de ancho variable. (X post)
Por qué es importante: el diseño y la medición de texto siempre han sido el cuello de botella implícito que obstaculiza a la nueva generación de UI. CSS se diseñó para documentos estáticos, no para el diseño fluido, generado por IA y de interfaces en tiempo real que hoy es lo común. Si Pretext cumple lo que muestra, eliminará una de las últimas restricciones fundamentales sobre la apariencia y la experiencia de las interfaces nativas de IA.
Arm entrega por primera vez su propio chip diseñado en los últimos 35 años
Arm lanzó el AGI CPU, un procesador de centro de datos de 136 núcleos desarrollado conjuntamente con Meta y basado en el proceso de 3nm de TSMC. Es la primera vez en la historia de la compañía que vende chips terminados en lugar de licenciar IP. OpenAI, Cerebras y Cloudflare son los primeros socios; se espera que los envíos en volumen comiencen antes de fin de año. (Arm Newsroom, EE Times)
Por qué es importante: los centros de datos de IA actuales están dominados por GPUs. Las GPU se encargan del entrenamiento y la ejecución de modelos, mientras que la CPU procesa principalmente flujos de datos y la planificación. Pero las cargas de trabajo agentic son distintas. Cuando miles de agentes de IA se ejecutan simultáneamente, y cada uno coordina tareas, llama a API, administra memoria y enruta datos entre sistemas, esa labor de orquestación recae sobre la CPU. Arm afirma que esto impulsará la demanda de CPU por cada gigavatio-capacidad de centro de datos en un factor de 4. (HPCwire, Futurum Group)
Nvidia y Emerald AI convierten los centros de datos en activos de la red eléctrica
Nvidia y Emerald AI anunciaron que formarán una alianza con AES, Constellation, Invenergy, NextEra y Vistra para construir una “fábrica de IA flexible”, participando en los servicios de balance de la red eléctrica mediante el ajuste de la carga de cómputo. El primer sitio, Aurora, está ubicado en Manassas, Virginia, y abrirá a principios de la primera mitad de 2026. (NVIDIA Newsroom, Axios)
Por qué es importante: la mayor limitación de la expansión de infraestructura de IA no son los chips, sino los plazos de conexión a la red eléctrica; en la mayoría de las regiones se requieren de 3 a 5 años. Los centros de datos que puedan demostrar flexibilidad en la red pueden conectarse más rápido y enfrentan menos resistencia regulatoria. Esto redefine la tesis energética para los inversores en infraestructura de IA: el argumento ganador no es “más electricidad”, sino “electricidad más inteligente”.
China restringe la salida de directivos de Manus AI
Las autoridades chinas restringieron la salida del país del CEO de Manus, 萧宏, y de su científico jefe, 纪一超, después de que Meta adquiriera esta startup de IA registrada en Singapur por 200 millones de dólares. El organismo nacional de desarrollo y reforma convocó a ambos directivos a Beijing este mes e impuso restricciones de viaje durante la revisión regulatoria. (Reuters, Washington Post)
Por qué es importante: esto no es una restricción comercial, sino una restricción de personal. China podría estar enviando una señal: el talento en IA con antecedentes continentales es un activo controlado, independientemente de dónde esté registrada la empresa.
Un modelo de 400 mil millones de parámetros corre localmente en el iPhone 17 Pro
Un proyecto de código abierto llamado Flash-MoE demostró que un modelo de mezcla de expertos con 400 mil millones de parámetros se ejecuta completamente en el dispositivo, usando el chip A19 Pro del iPhone 17 Pro, con transmisión en flujo de los pesos desde SSD hacia GPU. El modelo (Qwen 3.5-397B, cuantización de 2 bits, 17 mil millones de parámetros activos) funciona a una velocidad de 0.6 tokens por segundo y aún conserva 5.5GB de RAM. (WCCFTech, TweakTown, Hacker News)
Por qué es importante: esto es una prueba de concepto, no un producto. Un modelo de 400 mil millones de parámetros puede funcionar en un teléfono con memoria de 12GB porque en cualquier momento solo una pequeña parte del modelo está activa (mezcla de expertos); el resto se transmite en flujo bajo demanda desde el SSD incorporado del teléfono, en lugar de residir permanentemente en memoria. Pero al aplicar la misma táctica a modelos mucho más pequeños—por ejemplo, de 7 mil millones o 14 mil millones de parámetros—en un chip móvil con almacenamiento más rápido de la próxima generación, obtienes una IA realmente utilizable que corre localmente en el dispositivo con velocidad conversacional, sin depender de la nube.
Un AI Agent completó por sí solo toda una batería de experimentos de física de partículas
Investigadores del MIT publicaron un marco llamado JFC (Just Furnish Context), que muestra que un agente LLM construido con Claude Code puede ejecutar de forma autónoma una canalización completa de análisis de física de alta energía: filtrado de eventos, estimación de fondo, cuantificación de incertidumbres, inferencia estadística y redacción de un artículo. El sistema opera con datos abiertos de los detectores ALEPH, DELPHI y CMS. (arXiv 2603.20179)
Por qué es importante: esta es una de las demostraciones más claras de que el AI agentic puede automatizar de extremo a extremo flujos científicos en campos con un rigor metodológico extremadamente alto. La implicación directa para la inversión apunta a la reanálisis de conjuntos de datos heredados en los campos de la física, la genómica y la ciencia de materiales: datos de archivo de décadas que aún no han sido aprovechados de manera suficiente.