DeepSeek V4-Flash se lanza en Ollama Cloud, servidor en EE. UU.: Claude Code, OpenClaw con un clic para conectar

La herramienta de ejecución local de modelos de IA Ollama, anunciada públicamente en la plataforma X el 24/4, informó que incorporará el modelo V4-Flash, lanzado el día anterior por la startup china de IA DeepSeek, en el servicio Ollama Cloud. El servidor de inferencia está ubicado en Estados Unidos, y ofrece tres conjuntos de comandos de un solo toque para que los desarrolladores conecten directamente V4-Flash a flujos de trabajo de desarrollo de software de IA populares como Claude Code, OpenClaw y Hermes.

deepseek-v4-flash is now available on Ollama’s cloud! Hosted in the US. Try it with Claude Code: ollama launch claude –model deepseek-v4-flash:cloud Try it with OpenClaw: ollama launch openclaw –model deepseek-v4-flash:cloud Try it with Hermes: ollama launch hermes…

— ollama (@ollama) April 24, 2026

Previa de DeepSeek V4: dos tamaños, 1M de contexto

De acuerdo con el anuncio publicado por la documentación oficial de la API de DeepSeek el 24/4, DeepSeek-V4 Preview se abre en simultáneo en dos tamaños:

Modelo Parámetros totales Parámetros activos Enfoque DeepSeek-V4-Pro 1,6 billones 490 millones Objetivo: buque insignia propietario DeepSeek-V4-Flash 2,840 billones 130 millones Rápido, eficiente y de bajo costo

Ambos adoptan una arquitectura Mixture-of-Experts (MoE), con soporte nativo para contextos largos de 1 millón de tokens. En el anuncio, DeepSeek declara: «El contexto de 1M ahora es el valor predeterminado de todos los servicios oficiales de DeepSeek».

Innovación de arquitectura: atención dispersa DSA + compresión por token

Las mejoras arquitectónicas centrales de la serie V4 incluyen:

Compresión por token junto con DSA (DeepSeek Sparse Attention) — reduce drásticamente el costo de los cálculos de inferencia y la memoria caché de KV en escenarios de contextos extremadamente largos

En comparación con V3.2, en el contexto de 1 millón de tokens, V4-Pro requiere solo 27% de los FLOPs para inferencia por token y la caché KV solo requiere 10%

Soporta el cambio entre dos modos: Thinking y Non-Thinking, para satisfacer necesidades de razonamiento profundo en tareas diferentes

A nivel de API, es compatible tanto con OpenAI ChatCompletions como con las especificaciones de Anthropic APIs, reduciendo el costo de migración de los clientes existentes de Claude/GPT.

Los tres comandos de inicio inmediato de Ollama Cloud

En la página oficial del modelo, se ofrece el servicio de inferencia en la nube con el identificador de modelo deepseek-v4-flash:cloud; los desarrolladores pueden usar los siguientes tres conjuntos de comandos para conectar V4-Flash directamente a flujos de trabajo existentes de desarrollo de software de IA:

Flujo de trabajo Comando Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

Cabe prestar atención a la señal de «servidor en Estados Unidos». Para empresas y desarrolladores de Europa y Norteamérica, la mayor inquietud al usar modelos de código abierto chinos es la devolución de datos a China; Ollama elige colocar la capa de inferencia de V4-Flash en Estados Unidos, lo que significa que el prompt y el contenido del código no salen del ámbito jurisdiccional de Estados Unidos, reduciendo fricciones en términos de cumplimiento y soberanía de datos.

Por qué este asunto es importante para la industria de la IA

Al conectar entre sí DeepSeek V4-Flash, Ollama Cloud y Claude Code, que antes eran ecosistemas independientes, se generan tres significados:

Ruta de costos: los 13.000 millones de parámetros activos de V4-Flash son muy inferiores a los de buques insignia como GPT-5.5 (5 dólares de entrada, 30 dólares de salida por cada millón de tokens) y Claude Opus 4.7; para tareas de agentes de tamaño medio y pequeño, resúmenes por lotes, automatización de pruebas, etc., se espera que el costo unitario disminuya de forma significativa

Capa intermedia de riesgo geográfico: al actuar Ollama como una capa de inferencia intermedia registrada en Estados Unidos, permite a los usuarios empresariales de modelos nativos chinos eludir la preocupación de que «los datos se envíen directamente al servidor de DeepSeek en Beijing»; esta es una solución práctica para la difusión internacional de modelos de código abierto

Cambio inmediato para desarrolladores: los usuarios de Claude Code y OpenClaw pueden cambiar de modelo en una sola línea en la línea de comandos, sin necesidad de cambiar la estructura del prompt ni la configuración del IDE; para escenarios como «pruebas de regresión con múltiples modelos» y «tareas por lotes sensibles al costo», esto realmente libera productividad

Vinculación con noticias anteriores de DeepSeek

El lanzamiento de esta V4 y la integración rápida con Ollama Cloud ocurre en un contexto en el que DeepSeek está negociando la primera ronda de financiación externa y una valoración de 20.000 millones de dólares. V4 es una prueba clave de producto en el proceso de capitalización de la empresa DeepSeek; con una estrategia de código abierto + socios de expansión rápida a nivel internacional, es una carrera de velocidad para establecer la dominancia del ecosistema de desarrolladores antes de consolidarla. Para OpenAI y Anthropic, un modelo de reemplazo abierto que se puede cambiar en una sola línea dentro de Claude Code es una nueva variable en la puja por el control de los flujos de trabajo de los agentes.

Este artículo «DeepSeek V4-Flash llega a Ollama Cloud, servidor en Estados Unidos: conexión en un solo toque con Claude Code, OpenClaw» apareció por primera vez en Cadena News ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Anthropic implementa salvaguardas electorales para Claude antes de las elecciones legislativas de mitad de mandato de 2026

Anthropic anunció el viernes un conjunto de medidas de integridad electoral diseñadas para evitar que su chatbot de IA Claude sea utilizado como arma para difundir desinformación o manipular a los votantes antes de las elecciones legislativas de mitad de período de EE. UU. de 2026 y otros grandes comicios en todo el mundo este año. Con sede en San Francisco,

CryptoFrontierhace2h

DeepRoute.ai sistema avanzado de asistencia a la conducción supera las 300.000 unidades desplegadas: objetivo 2026 de 1.000.000 flotas urbanas NOA

DeepRoute.ai anuncia que su avanzado sistema de asistencia para conducción ha acumulado más de 300.000 vehículos desplegados en China, y que durante el último año ha ayudado a evitar más de 180.000 incidentes potenciales. El objetivo para 2026 es alcanzar un parque de NOA para ciudades de 1 millón de vehículos, con una utilización superior al 50%, lo que se considera clave para la comercialización a gran escala de Robotaxi. Esta medida muestra que la conducción autónoma en China ya ha entrado en un uso normalizado, al tiempo que crea una división con la ruta de integración vertical que sigue Estados Unidos, lo que afecta la cronología de la cadena de suministro en Asia-Pacífico.

ChainNewsAbmediahace3h

DeepSeek lanza los modelos V4-Pro y V4-Flash con un costo un 98% menor que el GPT-5.5 Pro de OpenAI

Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts.

GateNewshace8h

El juez desestima las acusaciones de fraude en la demanda de Elon Musk contra OpenAI; el caso avanza a juicio con dos acusaciones restantes

Mensaje de Gate News, 24 de abril — Un juez federal ha desestimado las acusaciones de fraude de la demanda de Elon Musk contra OpenAI, Sam Altman, Greg Brockman y Microsoft, despejando el camino para que el caso avance a juicio con dos acusaciones restantes: incumplimiento de la confianza caritativa y enriquecimiento injusto. EE. UU.

GateNewshace11h

El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela

Mensaje de Gate News, 25 de abril — El director ejecutivo de OpenAI, Sam Altman, se disculpó con la comunidad de Tamborine en Canadá por el fallo de la empresa al no notificar a la policía sobre una cuenta prohibida vinculada a Jesse Van Rootselaar, quien mató a ocho personas en una escuela en febrero antes de quitarse la vida. OpenAI

GateNewshace12h

Los EAU anuncian un cambio hacia un modelo de gobierno basado en IA en los próximos dos años

Su Alteza el Jeque Mohammed bin Rashid Al Maktoum declaró que el objetivo era que el 50% de los sectores gubernamentales operaran a través de IA agentica autónoma. La transición también incluirá la formación de los empleados federales para “dominar la IA” y estará supervisada por el Jeque Mansour bin Zayed. Puntos Clave:

Coinpediahace12h
Comentar
0/400
Sin comentarios