DeepSeek, la innovadora startup china, ha lanzado la versión preliminar de su modelo más avanzado hasta la fecha: DeepSeek V4. Este desarrollo, que llega un año después de su impactante modelo R1, se presenta en dos variantes: Pro y Flash.
Ambas versiones cuentan con un soporte impresionante para un millón de tokens de contexto, desafiando directamente a gigantes como OpenAI y Google, y ofreciendo una alternativa de código abierto bajo la licencia MIT.
Innovaciones en Arquitectura y Rendimiento
DeepSeek V4 Pro está diseñado para tareas que requieren razonamiento complejo y habilidades avanzadas, con 1,6 billones de parámetros totales y 49.000 millones activos por cada token procesado.
Por otro lado, la variante Flash, que se enfoca en la rapidez y eficiencia, cuenta con 284.000 millones de parámetros totales y 13.000 millones activos.
La diferencia en rendimiento entre ambas no es tan pronunciada como se podría pensar, lo que sugiere que los equipos pueden elegir según sus necesidades específicas sin sacrificar demasiado rendimiento.
El modelo ha sido entrenado con más de 32 billones de tokens utilizando técnicas de precisión mixta FP4 y FP8. Esto permite a DeepSeek mantener un bajo coste computacional mientras se asegura una calidad adecuada en las respuestas.
Además, han implementado una nueva arquitectura de atención llamada Hybrid Attention Architecture, que combina Compressed Sparse Attention (CSA) y Heavily Compressed Attention (HCA), logrando un manejo más eficiente de contextos largos sin disparar los costes de memoria.
Tambien lee:
Desempeño Comparativo y Estrategia de Precios
En términos de rendimiento, los benchmarks de DeepSeek indican que el V4 Pro se encuentra solo por detrás del modelo Gemini 3.1 Pro en conocimiento general y supera a otros modelos abiertos en programación y razonamiento STEM.
Aunque en recuperación de contexto largo no alcanza a los mejores modelos cerrados, su coste de uso es notablemente inferior, lo que presenta una opción viable para equipos que trabajan con grandes volúmenes de información.
Los precios son competitivos: las entradas con acierto de caché para el modelo Flash cuestan solo 0,028 dólares, mientras que las salidas son de 0,28 dólares. Para el Pro, las entradas son 0,145 dólares y las salidas 3,48 dólares.
Esto facilita el uso de un modelo de esta envergadura en entornos productivos sin comprometer el presupuesto. La disponibilidad de los pesos del modelo en plataformas como Hugging Face y ModelScope, así como una API actualizada, permite a los desarrolladores experimentar con ambas versiones de inmediato.
Fuentes: Cultura Informática, Documentación de DeepSeek y DW.com





