Análisis
DeepSeek ha lanzado su nuevo modelo de lenguaje grande, DeepSeek V4, disponible en versiones Pro (1.6 billones de parámetros) y Flash (248 mil millones de parámetros). Estos modelos de pesos abiertos utilizan una arquitectura Mixture-of-Experts para mayor eficiencia y soportan una ventana de contexto de un millón de tokens. Según pruebas internas de DeepSeek, V4 Pro-Max iguala o supera a modelos propietarios como Claude Opus 4.6 Max y GPT-5.4 xHigh en benchmarks de programación, ofreciendo además un costo significativamente menor, hasta siete veces inferior al de modelos de empresas estadounidenses.
Hechos verificados
- 1DeepSeek ha lanzado su nuevo modelo de lenguaje grande, DeepSeek V4.
- 2DeepSeek V4 está disponible en dos versiones: Pro (1.6 billones de parámetros) y Flash (248 mil millones de parámetros).
- 3Ambas versiones utilizan una arquitectura Mixture-of-Experts (MoE).
- 4Los modelos soportan una ventana de contexto de un millón de tokens.
- 5Pruebas internas de DeepSeek indican que V4 Pro-Max compite o supera a modelos como Claude Opus 4.6 Max y GPT-5.4 xHigh en benchmarks de programación.
- 6Los costos de DeepSeek V4 son significativamente menores que los de modelos propietarios de empresas estadounidenses, hasta siete veces menos.
- 7La verificación independiente de los benchmarks de DeepSeek V4 aún no se ha realizado.
