DeepSeek-V4 llega con inteligencia de frontera a 1/6 del costo de Opus 4.7

DeepSeek-V4 acaba de redefinir qué significa acceder a inteligencia artificial de frontera: un modelo de 1,6 billones de parámetros disponible bajo licencia MIT abierta que cuesta aproximadamente 1/6 de lo que cobra Anthropic por Claude Opus 4.7, y que en algunos benchmarks los supera. No es un producto nicho —es una sacudida económica para toda la industria.
El regreso de la ballena
En enero de 2025, DeepSeek —el spin-off de IA de la firma cuantitativa High-Flyer Capital Management— sacudió al mundo con su modelo R1, que igualó a los gigantes propietarios estadounidenses siendo completamente open source. Desde entonces, la comunidad global de IA ha estado esperando el verdadero sucesor. 484 días después del lanzamiento de V3, el investigador Deli Chen describió este lanzamiento como una "obra de amor" y declaró en X: "La AGI le pertenece a todos".
Los números que importan
DeepSeek-V4-Pro se cotiza a $1,74 por millón de tokens de entrada y $3,48 por millón de tokens de salida, para un total combinado de $5,22 en una comparación simple. Eso lo pone a aproximadamente 1/7 del costo de GPT-5.5 ($35,00 combinado) y 1/6 del costo de Claude Opus 4.7 ($30,00 combinado). Con entrada cacheada, la brecha se amplía aún más: DeepSeek-V4-Pro baja a $3,625 combinado. Y si hablamos de DeepSeek-V4-Flash, el modelo más económico, el costo combinado cae a $0,42 —más del 98% por debajo de GPT-5.5— aunque con una caída notable en rendimiento. El modelo está disponible ahora en Hugging Face y vía API.
Lo que esto realmente significa
En benchmarks propios, DeepSeek-V4-Pro-Max supera a GPT-5.4 y Claude Opus 4.6 en pruebas como Codeforces y Apex Shortlist, pero cuando se compara contra los modelos más recientes —GPT-5.5 y Claude Opus 4.7— los sistemas cerrados de OpenAI y Anthropic aún lideran en la mayoría de las pruebas compartidas. Es decir: no es una victoria limpia en rendimiento puro, pero sí es una victoria contundente en la relación calidad-precio. Para los desarrolladores y empresas que gestionan grandes cargas de inferencia, tareas que antes eran económicamente inviables con GPT-5.5 o Claude Opus 4.7 ahora pueden tener sentido financiero con DeepSeek-V4-Pro.
El mapa de la industria cambia
OpenAI y Anthropic ahora tienen un problema que no se resuelve solo con mejores benchmarks: DeepSeek está comprimiendo la banda económica de los modelos avanzados hacia abajo, y hacerlo bajo licencia MIT elimina casi cualquier barrera de adopción. Las empresas que construían su stack sobre modelos premium cerrados van a revisar esos contratos. Los proveedores de nube que revenden acceso a modelos de frontera también sienten la presión. Y para los mercados emergentes y startups con presupuesto limitado, la ecuación de acceso a IA de calidad acaba de cambiar drásticamente.
¿Qué viene ahora?
El movimiento de DeepSeek fuerza a OpenAI, Anthropic y Google a responder —ya sea bajando precios, abriendo más sus modelos o acelerando sus próximas versiones. El ciclo de presión competitiva que inició R1 en enero de 2025 no ha hecho más que intensificarse. Con un modelo de 1,6 billones de parámetros disponible gratis bajo MIT, la pregunta ya no es si los modelos abiertos pueden competir con los cerrados, sino cuánto tiempo pueden los proveedores premium defender sus márgenes.
La inteligencia artificial de frontera ya no es un club exclusivo —y eso debería preocupar mucho más a Silicon Valley de lo que públicamente admite.
Fuente: VentureBeat