El extraño caso de la IA: cada vez está más barata, y cada vez estamos pagando más que nunca por usarla
Cada vez que ChatGPT genera una palabra, eso cuesta dinero. Pero el precio de esa palabra generada no ha parado de caer desde el lanzamiento de ese modelo, y lo mismo ocurre con sus rivales. Hoy en día tenemos modelos de IA que no solo son más potentes, sino que además son más baratos que nunca , y lo curioso es que estamos pagando cada vez más por usarlos. ¿Qué está pasando? Tokens . OpenAI define los tokens como "secuencias comunes de caracteres que se encuentran en un conjunto de texto". Esa "unidad básica" de información es la que usan estos modelos para entender qué estamos diciendo y luego procesar esos textos para respondernos. Cada vez que usamos ChatGPT tenemos por un lado la petición con el texto que introducimos (tokens de entrada) y por el otro el texto generado por el chatbot (tokens de salida). Precio por millón de tokens (Dólares) Entrada Salida GPT-5 1,10 10 GPT-4o 2,5 10 o1 15 60 Gemini 2.5 Pr...