La startup china presentó DeepSeek V4 Pro y Flash, dos modelos de IA con hasta 1,6 billones de parámetros y costos mucho más bajos que GPT-5.5 o Gemini 3.1 Pro. La compañía asegura que “cerró la brecha” con los líderes del sector.
La competencia global por dominar la inteligencia artificial acaba de sumar un nuevo capítulo. DeepSeek, el laboratorio chino de IA que sorprendió al mercado con su modelo R1, presentó oficialmente DeepSeek V4, una nueva familia de modelos de lenguaje que busca competir directamente contra los sistemas más avanzados de OpenAI, Google y Anthropic.
La compañía lanzó dos versiones preliminares: DeepSeek V4 Flash y DeepSeek V4 Pro. Ambos utilizan arquitectura “mixture of experts” (mezcla de expertos), una técnica que activa sólo una parte de los parámetros del modelo según la tarea solicitada, reduciendo así costos de inferencia y consumo computacional.

El dato más impactante está en el tamaño del modelo principal. DeepSeek V4 Pro alcanza un total de 1,6 billones de parámetros, con 49 mil millones activos por tarea, convirtiéndose en el modelo open-weight más grande disponible actualmente. La cifra supera ampliamente a competidores chinos recientes como Moonshot AI con Kimi K2.6 de 1,1 billones de parámetros, o M1 de MiniMax con 456 mil millones.
Incluso duplica el tamaño del anterior DeepSeek V3.2, que contaba con 671 mil millones de parámetros.
La versión más liviana, DeepSeek V4 Flash, utiliza 284 mil millones de parámetros, de los cuales 13 mil millones permanecen activos durante las tareas de inferencia.
Según la empresa, ambos modelos ofrecen ventanas de contexto de hasta 1 millón de tokens, permitiendo procesar enormes bases de código, documentación extensa o múltiples archivos dentro de una sola consulta. Esa capacidad es particularmente relevante para programación avanzada, análisis corporativo y automatización empresarial.
DeepSeek sostiene que los nuevos modelos mejoran significativamente el rendimiento respecto de V3.2 gracias a cambios arquitectónicos y optimizaciones internas. La empresa incluso afirmó que prácticamente “cerró la brecha” con los modelos líderes del mercado, tanto abiertos como cerrados.
En benchmarks de razonamiento y programación, la compañía asegura que V4 Pro supera a varios modelos open source y logra resultados comparables —e incluso superiores en algunos casos— frente a GPT-5.2 y Gemini 3.0 Pro.
Además, DeepSeek indicó que el desempeño de ambos modelos V4 en competencias de programación se acerca al nivel de GPT-5.4, uno de los modelos más avanzados de OpenAI.
Sin embargo, la propia empresa reconoció ciertas limitaciones. En pruebas relacionadas con conocimiento general y comprensión amplia, los modelos todavía quedan ligeramente por detrás de GPT-5.4 y Gemini 3.1 Pro.
El laboratorio chino describió esta diferencia como una “trayectoria de desarrollo ubicada entre tres y seis meses detrás de los modelos de vanguardia más avanzados”.
A diferencia de varios competidores estadounidenses, DeepSeek V4 todavía es exclusivamente textual. Los modelos no admiten comprensión o generación de imágenes, video o audio, un terreno donde OpenAI, Google y Anthropic ya avanzan agresivamente con sistemas multimodales.
Pero donde DeepSeek sí busca golpear fuerte es en el precio.
La compañía posicionó a V4 como una alternativa extremadamente económica frente a los modelos premium occidentales. DeepSeek V4 Flash cuesta apenas U$S 0,14 por millón de tokens de entrada y U$S 0,28 por millón de tokens de salida, ubicándose por debajo de GPT-5.4 Nano, Gemini 3.1 Flash y Claude Haiku 4.5.
Por su parte, DeepSeek V4 Pro cuesta U$S 0,145 por millón de tokens de entrada y U$S 3,48 por millón de tokens de salida, cifras considerablemente inferiores frente a modelos como GPT-5.5, Gemini 3.1 Pro o Claude Opus 4.7.
El lanzamiento ocurre en medio de una creciente tensión geopolítica alrededor de la inteligencia artificial. Apenas un día antes de la presentación, Estados Unidos acusó a China de realizar robo sistemático de propiedad intelectual vinculada a IA mediante miles de cuentas proxy destinadas a acceder a modelos occidentales.
En paralelo, tanto OpenAI como Anthropic acusaron anteriormente a DeepSeek de utilizar técnicas de “distillation” o “extracción”, un método que consiste en copiar comportamientos y capacidades de modelos rivales mediante consultas masivas.
Más allá de las controversias, el avance de DeepSeek confirma algo que ya preocupa a Silicon Valley: China continúa acelerando el desarrollo de modelos de IA cada vez más competitivos y considerablemente más baratos.
Y mientras OpenAI, Google y Anthropic apuestan por ecosistemas cerrados y multimodales, DeepSeek parece querer posicionarse como la gran alternativa abierta y de bajo costo para desarrolladores y empresas de todo el mundo.

