Anuncios

DeepSeek lanza su modelo más potente y desafía a OpenAI con precios más bajos

Descubre DeepSeek V4, la nueva IA abierta de la startup china que desafía a OpenAI y Google con innovaciones en rendimiento y arquitectura.

Anuncios

DeepSeek, la innovadora startup china, ha lanzado la versión preliminar de su modelo más avanzado hasta la fecha: DeepSeek V4. Este desarrollo, que llega un año después de su impactante modelo R1, se presenta en dos variantes: Pro y Flash.

Ambas versiones cuentan con un soporte impresionante para un millón de tokens de contexto, desafiando directamente a gigantes como OpenAI y Google, y ofreciendo una alternativa de código abierto bajo la licencia MIT.

Innovaciones en Arquitectura y Rendimiento

DeepSeek V4 Pro está diseñado para tareas que requieren razonamiento complejo y habilidades avanzadas, con 1,6 billones de parámetros totales y 49.000 millones activos por cada token procesado.

Anuncios

Por otro lado, la variante Flash, que se enfoca en la rapidez y eficiencia, cuenta con 284.000 millones de parámetros totales y 13.000 millones activos.

La diferencia en rendimiento entre ambas no es tan pronunciada como se podría pensar, lo que sugiere que los equipos pueden elegir según sus necesidades específicas sin sacrificar demasiado rendimiento.

El modelo ha sido entrenado con más de 32 billones de tokens utilizando técnicas de precisión mixta FP4 y FP8. Esto permite a DeepSeek mantener un bajo coste computacional mientras se asegura una calidad adecuada en las respuestas.

Anuncios

Además, han implementado una nueva arquitectura de atención llamada Hybrid Attention Architecture, que combina Compressed Sparse Attention (CSA) y Heavily Compressed Attention (HCA), logrando un manejo más eficiente de contextos largos sin disparar los costes de memoria.


Tambien lee:

Anuncios

Desempeño Comparativo y Estrategia de Precios

En términos de rendimiento, los benchmarks de DeepSeek indican que el V4 Pro se encuentra solo por detrás del modelo Gemini 3.1 Pro en conocimiento general y supera a otros modelos abiertos en programación y razonamiento STEM.

Aunque en recuperación de contexto largo no alcanza a los mejores modelos cerrados, su coste de uso es notablemente inferior, lo que presenta una opción viable para equipos que trabajan con grandes volúmenes de información.

Los precios son competitivos: las entradas con acierto de caché para el modelo Flash cuestan solo 0,028 dólares, mientras que las salidas son de 0,28 dólares. Para el Pro, las entradas son 0,145 dólares y las salidas 3,48 dólares.

Esto facilita el uso de un modelo de esta envergadura en entornos productivos sin comprometer el presupuesto. La disponibilidad de los pesos del modelo en plataformas como Hugging Face y ModelScope, así como una API actualizada, permite a los desarrolladores experimentar con ambas versiones de inmediato.

Fuentes: Cultura Informática, Documentación de DeepSeek y DW.com

Anuncios
Comparte tu aprecio
Enrique Hernandez
Enrique Hernandez

Soy Ingeniero en Sistemas Computacionales y Desarrollador con más de cuatro años de experiencia en el sector web. Fundé CursotecaPlus y cofundé Facialix. Sé sobre PHP, HTML, CSS, JavaScript y un poco de Python, siempre con visión de futuro y humor veloz cuando toca.

Mi misión impulsa la democratización del aprendizaje. Desde 2022, dedico mi experiencia a compartir cursos gratuitos y cupones del 100% de descuento en Udemy, seleccionados con criterio técnico y enfoque comunitario. Busco que cualquier persona acceda a formación útil, actual y sin barreras.

Artículos: 2468