El fin de la era dorada de las suscripciones de IA: por qué Claude, Copilot y compañía están cambiando las reglas
Durante los últimos dos años vivimos algo que, visto en retrospectiva, parecía demasiado bueno para ser verdad: por $20 al mes podías tener acceso a los modelos de IA más potentes del mundo, y por $200 al mes prácticamente uso ilimitado. Desarrolladores enteros construyeron sus flujos de trabajo alrededor de Claude Code, GitHub Copilot y Codex, quemando millones de tokens al día sin pensar en el costo real detrás de cada request.
Esa era se está acabando. Y no es una opinión: en las últimas semanas hemos visto movimientos concretos de Anthropic, GitHub y otros que dejan muy clara la dirección. Vamos a ver qué está pasando, por qué está pasando, y qué significa para quienes vivimos del código.
Las grietas que ya son visibles
Empecemos por los hechos recientes, que son bastante reveladores.
GitHub Copilot (20 de abril). GitHub anunció cambios drásticos en sus planes. Suspendieron por completo los nuevos signups de Copilot Pro, Pro Plus y student. Endurecieron los límites de uso de los planes individuales con cuotas semanales más estrictas. Y, lo más importante, quitaron los modelos Opus del plan Pro: ahora si quieres usar Opus tienes que pasarte a un plan considerablemente más caro (alrededor de 4x el precio del actual).
Anthropic (22 de abril). Anthropic intentó quitar Claude Code del plan Pro de $20. La reacción fue tan violenta en redes que casi inmediatamente revirtieron el cambio, y Claude Code volvió al plan Pro. Anthropic salió a aclarar que era "un test pequeño en solo el 2% de nuevos signups", pero el mensaje quedó claro: lo están considerando seriamente.
Clientes enterprise. En paralelo, muchas empresas grandes están viendo cómo sus contratos pasan de "pago por usuario" (donde pagas $20-$100 al mes por developer y tienes cierta cuota de uso) a pago por token consumido. Es exactamente el mismo movimiento, pero a escala empresarial: las plataformas dejaron de absorber el costo del uso intensivo.
A estos cambios hay que sumar una serie de cosas que ya veníamos sintiendo: límites más estrictos en general, percepción de que los modelos rinden peor en sesiones largas, restricciones para usar la suscripción fuera de Claude Code (por ejemplo el caso de OpenClaw), y en general una sensación de que estamos exprimiendo cada vez menos jugo de lo que pagamos.
No son hechos aislados. Son un patrón.
La economía detrás: por qué los números no cierran
Para entender por qué está pasando esto, hay que entender cómo funciona el costo de un modelo de IA. Hay dos componentes principales:
Costo de entrenamiento. Es altísimo, pero es un gasto único por modelo. Entrenas Claude Opus 4.7 una vez y ya está. Después puedes hacer fine-tunes, derivados, mejoras incrementales, pero el grueso del costo de entrenamiento se paga una sola vez.
Costo de inferencia. Es lo que ocurre cada vez que tú envías un prompt y el modelo te responde. Y a diferencia del entrenamiento, este costo es continuo, por request, por token.
Ahora, los precios de las APIs son una buena referencia para estimar el costo real (o cercano al real) de la inferencia. Por ejemplo:
- Claude Opus 4.7: $5 por millón de tokens de input, $25 por millón de tokens de output.
- GPT-5.4: $2.50 por millón de tokens de input, $22.50 por millón de output.
Es razonable asumir que estos precios dejan a las empresas más o menos en break-even o con un margen pequeño sobre el costo de inferencia. La API es donde no están perdiendo dinero.
Las suscripciones, en cambio, son otra historia. Hagamos la cuenta:
Por $200 al mes con Claude Max, si quisieras pagar el equivalente en API a precio de Opus, ni siquiera te alcanzaría para 10 millones de tokens de output. Y eso ignorando los tokens de input, que también cuentan. Cualquiera que use Claude Code de forma intensiva durante una semana ya pasa esa marca cómodamente.
La conclusión es directa: las suscripciones están fuertemente subsidiadas con dinero de inversionistas. Anthropic, OpenAI y los demás están perdiendo dinero en los usuarios power, apostando a que la mayoría no exprime el plan al máximo (el modelo Netflix: si todos vieran 24/7 nadie ganaría plata).
El problema es que con la IA, muchos usuarios sí exprimen el plan al máximo. Y cada vez son más.
Por qué está pasando justo ahora
La pregunta interesante es: ¿por qué este cambio está sucediendo ahora y no hace seis meses o no dentro de seis meses? Hay tres factores que se juntaron al mismo tiempo.
1. Los workflows agénticos cambiaron el consumo de tokens
Hace un año, el caso de uso típico de un modelo de IA era el chat ocasional. Entrabas a ChatGPT, hacías una pregunta, recibías una respuesta, tal vez un par de follow-ups. En total, unos miles de tokens por sesión.
Hoy, un solo desarrollador con Claude Code abierto puede quemar cientos de miles o millones de tokens en una sola sesión de trabajo. El propio GitHub lo reconoció en su comunicado: "los flujos de trabajo agénticos cambiaron fundamentalmente las demandas de cómputo de Copilot. Las sesiones largas y paralelas ahora consumen muchísimos más recursos de los que la estructura original del plan fue diseñada para soportar".
A eso súmale que los modelos modernos son modelos de razonamiento (thinking models). Cuando le pides algo a Claude o a o3, el modelo genera un montón de tokens internos de "pensamiento" antes de darte la respuesta final. Tú no los ves, pero existen, se computan, y se pagan.
El resultado: el mismo precio de suscripción que antes, contra un consumo de tokens que se multiplicó por diez o por cien.
2. Hay una crisis real de cómputo
No es solo que la IA cuesta plata. Es que el cómputo físicamente no existe en cantidad suficiente. Vivimos una escasez global de:
- Memoria. La inferencia necesita muchísima memoria (si has intentado correr modelos localmente, lo sabes). Los precios de RAM y VRAM están por las nubes.
- Networking entre GPUs. Los modelos no corren en una sola GPU, sino en clusters enormes que necesitan interconexiones de alto rendimiento. Esos componentes están en altísima demanda.
- Energía. Los data centers necesitan tanta electricidad que ya no se puede sacar de la red eléctrica tradicional. Por eso muchos data centers nuevos se están moviendo a soluciones off-grid: turbinas de gas o energía nuclear instaladas al lado del data center. Construir eso toma años.
Las empresas tienen que repartir ese cómputo escaso entre dos prioridades que compiten: entrenar modelos nuevos (para no quedarse atrás en la carrera) y servir inferencia (para retener a los clientes que ya tienen). El año pasado podían inclinar la balanza más hacia entrenamiento. Ahora la inferencia se volvió crítica porque sin ella no hay retención ni revenue.
3. La carrera por market share está llegando a su límite financiero
¿Por qué estas empresas no suben los precios y ya? Por una razón muy concreta: market share. Si tu coding agent es el que se establece como estándar en cientos de empresas, esas empresas eventualmente van a pagar lo que sea para mantenerlo. No quieres subir precios antes de tiempo y empujar a tus clientes a la competencia.
Pero por el otro lado, no puedes subsidiar pérdidas para siempre. OpenAI, por ejemplo, recientemente levantó $122 mil millones de dólares y según los reportes, eso le da apenas unos 18 meses de runway antes de tener que volver a levantar capital. Anthropic está en una situación similar.
Es una cuerda floja: si subes precios muy temprano pierdes mercado, si los subes muy tarde te quiebras.
Bonus: por qué Anthropic la sufre más que OpenAI
Hay un ángulo interesante aquí. Los modelos de Anthropic son más caros de servir (basta ver los precios de API), pero el problema más grande es su mix de clientes. Anthropic siempre tuvo una base más enterprise/business, mientras OpenAI tiene mucho más usuario "consumer normal" que paga $20 al mes y casi no usa el servicio.
¿Quiénes están corriendo los workflows agénticos pesados que queman millones de tokens? Las empresas y los desarrolladores profesionales. Justo el tipo de cliente que Anthropic concentra. OpenAI tiene la suerte de tener millones de personas pagando ChatGPT Plus para preguntar recetas de cocina y traducir emails.
El patrón clásico: enshittification
Ahora viene el ángulo más cultural y, para mí, el más interesante para entender hacia dónde va esto.
Hay un término que se popularizó en los últimos años: enshittification (algo así como "empeoramiento progresivo"). Describe el ciclo de vida típico de las plataformas digitales financiadas con capital de riesgo:
- Fase 1. La plataforma usa dinero de VCs para ofrecer un producto increíblemente bueno y barato. Captura usuarios masivamente.
- Fase 2. Una vez que tienen suficientes usuarios atrapados (por costumbre, lock-in, switching costs), empiezan a subir precios.
- Fase 3. Reducen las features, recortan beneficios, y los usuarios aguantan porque ya no es fácil cambiarse.
Los ejemplos abundan:
- Netflix. Hace 10 años: barato, todo el catálogo de cine y TV, sin anuncios. Hoy: mucho más caro, contenido más limitado, tiers con anuncios, restricciones de cuentas compartidas.
- Uber. Al inicio: significativamente más barato que un taxi. Hoy: igual o más caro que un taxi tradicional.
- DoorDash, Rappi y delivery en general. Al inicio: precios razonables. Hoy: pagas literalmente el doble del valor de la comida solo por el delivery.
El patrón siempre es el mismo. Y la IA encaja perfectamente en él.
Por qué la IA podría ser peor que cualquier caso anterior
Acá viene la parte incómoda. Si Netflix sube de precio, te vas a HBO o cancelas. Si Uber sube, tomas taxi. El costo de cambiar es real pero manejable.
Con la IA hay un riesgo de lock-in distinto: lock-in por dependencia de habilidad. Si un desarrollador (o peor, una generación entera de desarrolladores) construye toda su carrera dependiendo de que la IA escriba el código por él, y nunca aprende realmente cómo funciona el código que produce, no tiene cómo salir. Aunque suban el precio 10x, lo va a tener que pagar porque es la única forma que conoce de trabajar.
A nivel empresarial el problema escala feo. Imagina una empresa con 1.000 desarrolladores que dependen de Claude Code o Copilot para ser productivos. Si el precio se multiplica por 5, eso es un line item gigantesco en el presupuesto. Y si los desarrolladores ya no pueden trabajar sin la herramienta, la empresa no tiene mucho margen de negociación.
Esta es una de las razones por las que para mí —y creo que para cualquiera que produce contenido educativo en programación— enseñar fundamentos sigue siendo más importante que nunca. La IA es un acelerador brutal cuando sabes lo que estás haciendo. Es una jaula cara cuando no.
Qué esperar a futuro
Juntando todo, las predicciones razonables son:
Corto plazo (próximos meses). Más límites estrictos, más restricciones sobre qué modelos están disponibles en qué planes, y probablemente más experimentos como el de Anthropic con Claude Code. La pelea por market share todavía es lo suficientemente fuerte como para que no veamos subidas masivas de precio inmediatas.
Mediano plazo (un año, año y medio). Subidas de precio significativas, especialmente en planes profesionales/empresariales. Probablemente veamos una fragmentación de la oferta:
- Planes baratos tipo "ChatGPT casual" para usuarios no técnicos, con límites estrictos pero suficientes para chat ocasional.
- Planes profesionales caros, con uso agéntico habilitado, pero a precios significativamente más altos. Algunos analistas mencionan rangos de miles de dólares al mes para uso agéntico intensivo, comparándolo contra el costo de un empleado.
Largo plazo. Difícil de predecir, pero hay dos escenarios principales: o el costo de cómputo baja drásticamente (por mejoras en hardware, modelos más eficientes, energía abundante) y vuelve la era de la abundancia barata, o se consolida un mercado de IA "premium" donde el acceso intensivo a los mejores modelos se vuelve un privilegio caro.
Qué hacer mientras tanto
Para los que vivimos del código, algunas reflexiones prácticas:
Aprovecha el momento, pero no te acomodes. Los precios actuales no van a durar para siempre. Si puedes capitalizar este período con productividad real, contenido, side projects o automatización de tu negocio, hazlo ahora.
No pierdas los fundamentos. El developer que entiende el código que la IA produce siempre va a tener más leverage que el que solo copia y pega. Cuando los precios suban, va a poder elegir cuándo usar IA y cuándo no.
Diversifica tus herramientas. Depender 100% de un solo proveedor (Anthropic, OpenAI, GitHub) te deja completamente expuesto a sus cambios de precio y políticas. Mantener fluidez en varias opciones, incluyendo modelos open source corriendo localmente para ciertos casos, es una buena estrategia defensiva.
Si tienes una empresa, modela los costos a futuro. Si tu modelo de negocio depende de que la IA siga costando lo que cuesta hoy, estás construyendo sobre arena. Haz proyecciones con precios 3x y 5x más altos y mira si tu negocio sigue funcionando.
Conclusión
Lo que estamos viendo no es un escándalo ni una traición de las empresas de IA. Es simplemente la ley de gravedad económica alcanzando finalmente a un mercado que estuvo levitando durante dos años gracias al capital de riesgo. Los modelos cuestan plata, la inferencia cuesta plata, el cómputo escasea, y eventualmente alguien tiene que pagar por todo eso.
Los días del "uso casi ilimitado por $20" están contados. Pero eso no es necesariamente malo: lo que viene es un mercado más maduro, donde el acceso a IA se cobra al costo real, donde aprenderemos a usarla con más criterio, y donde —ojalá— los desarrolladores que entienden lo que hacen sigan teniendo ventaja sobre los que solo aprietan Tab.
Vienen tiempos interesantes.