DeepSeek lanzó dos versiones de preview de su modelo de lenguaje más nuevo, DeepSeek V4. La empresa afirma que ambos modelos son más eficientes y tienen mejor rendimiento que DeepSeek V3.2 debido a mejoras arquitectónicas, y que han "cerrado casi la brecha" con los modelos líderes actuales en benchmarks de razonamiento.

Dos niveles: V4 Flash y V4 Pro

La línea V4 se envía en dos variantes dirigidas a diferentes puntos de costo y capacidad:

V4 Pro es el modelo insignia — 1.6 billones de parámetros totales con 49 mil millones de parámetros activos en tiempo de inferencia, lo que lo convierte en el modelo de pesos abiertos más grande disponible actualmente. Utiliza una arquitectura de mezcla de expertos que activa solo una fracción del modelo para cualquier token dado, manteniendo los costos de inferencia manejables a pesar del massive recuento total de parámetros.

V4 Flash es la variante eficiente — 284 mil millones de parámetros totales con 13 mil millones de activos. Sacrifica algo de rendimiento en benchmarks por un costo operativo significativamente menor, posicionándolo como la opción práctica para despliegues en producción donde se necesita razonamiento de nivel GPT-5 a escala.

Ambos modelos comparten una ventana de contexto de 1 millón de tokens —la más larga de cualquier modelo de pesos abiertos actualmente disponible— haciéndolos adecuados para tareas que requieren razonamiento a través de documentos o bases de código muy grandes.

Rendimiento en benchmarks

Los benchmarks propios de DeepSeek muestran que los modelos V4 superan a los pares de código abierto en tareas de razonamiento, generación de código y resolución de problemas matemáticos. En benchmarks de competencia de codificación, DeepSeek estima que el rendimiento de V4 es "parable a GPT-5.4." En algunas tareas de razonamiento individuales, V4 supera tanto a GPT-5.2 de OpenAI como a Gemini 3.0 Pro de Google.

La brecha con los modelos frontier —GPT-5.4 y Gemini 3.1 Pro— se estima en aproximadamente 3 a 6 meses según la propia evaluación de DeepSeek. En pruebas intensivas en conocimiento, los modelos aún están por detrás del frontier actual, lo que DeepSeek atribuye a diferencias en la curación de datos de entrenamiento más que a limitaciones arquitectónicas.

Precios

El precio de la API posiciona a V4 Flash como una alternativa rentable a los modelos premium:

Modelo Input (por 1M tokens) Output (por 1M tokens)
V4 Flash $0.14 $0.28
V4 Pro $0.145 $3.48

La amplia brecha entre el precio de input y output de V4 Pro refleja la diferencia de costo computacional entre inferencia y traces de razonamiento extendido.

Qué significa esto para la codificación con IA y flujos de trabajo agenticos

La ventana de contexto de 1M de tokens es particularmente relevante para la codificación asistida por IA. Tareas que requieren entender monorepos grandes, revisar diffs extensos o mantener contexto de conversación a través de sesiones largas se vuelven factibles sin truncamiento de contexto. Combinado con la arquitectura de mezcla de expertos que mantiene bajos los recuentos de parámetros activos, V4 Flash en particular representa una opción eficiente en costos para integraciones de asistentes de codificación.

El rendimiento en benchmarks de tareas de codificación también hace de V4 un candidato para backends de agentes de codificación con IA que anteriormente requerían APIs de modelos frontier —potencialmente reduciendo costos operativos para equipos que construyen flujos de trabajo de codificación autónomos.

Disponibilidad

Ambos modelos están disponibles a través de la API de DeepSeek, con acceso web y móvil para las versiones preview. Los pesos de código abierto para V4 Pro se esperan en un lanzamiento posterior, consistente con el patrón de DeepSeek en lanzamientos anteriores de V3.