China tienen los modelos de IA más baratos, EEUU los más potentes. Los que salimos ganando somos los usuarios
Publicado el 30/05/2025 por Diario Tecnología Artículo original
El pasado 20 de mayo Google lanzó Gemini 2.5 Pro y Gemini 2.5 Flash en versión preliminar. Estos nuevos modelos de IA eran mejores que nunca, y para demostrarlo la compañía incluyó en su anuncio varias gráficas y tablas comparativas.
En ellas se veía cómo ambos superaban a sus rivales tanto en el ámbito del razonamiento como en el del rendimiento tradicional (benchmarks de matemáticas o programación), pero además hubo otro dato del que presumió Google: el coste de Gemini 2.5 Flash.

Esa tabla publicada por Google dejaba claro que Gemini 2.5 Flash era claramente el vencedor de esa comparativa en la importante relación precio/prestaciones. Lo que no decía Google es que ese éxito de este modelo era la excepción a la regla, porque en esa carrera por tener modelos de IA baratos y potentes, China parece llevar la delantera.
Lo hace al menos si atendemos al coste que tiene usar esos modelos. En Xataka hemos analizado ese coste basándonos no en el precio de las suscripciones para usuarios finales, sino en el coste de acceso a la API, que es la que permite a los desarrolladores integrar estos modelos en sus chatbots propios y sus servicios.
Los precios de las APIs de cada modelo diferencian claramente dos usos de la inteligencia artificial. Por un lado, cuánto cuesta escribir algo para que el modelo luego lo procese (los llamados tokens de entrada). Por el otro, cuánto cuesta el texto generado por el modelo una vez procesada la respuesta (los llamados tokens de salida).
Los tokens de entrada suelen ser cinco veces más baratos que los de salida, porque procesar la petición y generar texto es mucho más costoso que recibirlo, analizarlo y "comprenderlo". Hemos querido comparar el coste de los principales modelos de IA desarrollados en China y los de EEUU, y aunque como siempre no están todos los que son, si son todos los que están. La tabla resultante es la siguiente:

Esos precios son públicos y muy fáciles de encontrar en el caso de modelos de IA de EEUU (OpenAI, Anthropic, Google) pero no tanto en el caso de los modelos chinos (DeepSeek, Qwen (Alibaba), Doubao (ByteDance), GLM-4 (Zhipu), Ernie (Baidu)).
Sea como fuere, la tabla, ordenada de los más baratos a los más caros, demuestra que hoy por hoy los modelos chinos son especialmente baratos. Solo Gemini 2.5 Flash Preview logra competir —y lo hace de forma excepcional—. En el resto de los casos, los modelos de IA desarrollados en China ganan la batalla por el coste.
Hay que señalar no obstante que, como todas las comparaciones, esta es injusta. Y lo es porque esa tabla no tiene en cuenta las prestaciones de cada modelo. OpenAI o3 y Anthropic Claude Opus 4, los últimos y más potentes modelos de esas compañías, son especialmente precisos en sus respuestas, pero cada consulta consume mucho más recursos (cómputo, energía) y eso hace lógico que sean mucho más caros que sus competidores.
Pero es que esos modelos también están pensados para casos muy especiales y para consultas especializadas, detalladas y profundas. En la inmensa mayoría de los casos no es necesario hacer uso de dichos modelos, y ahí es donde están compitiendo por ejemplo DeepSeek R1 o Gemini 2.5 Flash Preview: en la relación precio/prestaciones.
Modelos con precios variables
Esa batalla de precios ha hecho que en los últimos tiempos veamos dos técnicas que algunas empresas están aplicando a los precios de uso de sus APIs. La primera de ellas es la de diferenciar entradas y salidas normales de entradas (e incluso salidas) cacheadas.

La explicación es sencilla: una entrada "normal" es una petición o pregunta que el modelo nunca ha procesado y que por tanto tiene que procesar por completo. Si la entrada ha sido cacheada (Cache hit) es porque esa petición ha sido procesada en el pasado, así que el sistema puede obtener la respuesta de su caché, lo que reduce de forma significativa los costes computacionales. DeepSeek, Google, Anthropic y OpenAI ofrecen este tipo de opción, como se puede ver en la tabla.
La segunda técnica es la de utilizar precios variables según (de momento) la franja horaria en la que usamos estos modelos. Es lo que ha hecho por ejemplo DeepSeek, que tiene precios "de día" y "de noche" según el horario UTC. Si usas la API de DeepSeek desde las 18:30 hasta las 2:30 (horario peninsular de España), te saldrá a la mitad de precio.
Buenas noticias: la IA es cada vez (mucho) más barata
Mientras China y EEUU se pelean por quién tiene el modelo más potente o quién tiene el modelo más barato, lo que está sucediendo constantemente es que el precio de la IA está bajando de forma notable.
Es una observación de la que han hablado varios expertos como Ethan Mollick, profesor de la Universidad de Pensilvania que recientemente analizaba cómo esa relación precio/prestaciones no hace más que mejorar. Los modelos son cada vez mejores y más baratos.
Otros expertos como Raveesh Bhalla —exdirectivo de Netflix y LinkedIn— también reflejaban dicha evolución a principios de año. Entonces mostraba cómo el coste de un modelo del nivel de o1 había bajado 27 veces en los últimos tres meses. Es más: a este ritmo los modelos del nivel de GPT4 —que hace un año eran absolutos referentes— se reducirá 1.000 veces en tan solo 18 meses.
Lo estamos viviendo en la reducción de precios. Dane Bahey, de OpenAI, indicó en una conferencia en septiembre del año pasado cómo el coste por millón de tokens había caído desde los 36 dólares a tan solo 0,25 dólares en los últimos 18 meses. Y esa caída de precios sigue siendo clara y fantástica para los usuarios.
Así pues, estamos ante una carrera a la que de momento le queda mucho trecho: los modelos de IA de China llevan la delantera si atendemos solo a su coste, pero cuidado, porque también hay que tener en cuenta las prestaciones. Es cierto que esos modelos chinos ya han demostrado en los benchmarks que han ido mostrándose que compiten de tú a tú con los mejores modelos de EEUU, y ahora queda por ver quién se acabará llevando el gato al agua.
De momento, eso sí, hay un ganador absoluto en esa carrera: los usuarios, que contamos con una IA que es mejor y más barata cada día que pasa.
Imagen | Joshua Hoehne | Alejandro Luengo
utm_campaign=30_May_2025"> Javier Pastor .