Claude ajusta sus límites de uso: usuarios reportan que los mensajes se agotan más rápido

Anthropic atribuye el cambio al fin de promociones, mayor demanda y ajustes durante horas pico

Guardar
Claude cambió sus límites de uso y los mensajes se agotan más rápido.
Claude cambió sus límites de uso y los mensajes se agotan más rápido.

Usuarios de todo el mundo han comenzado a reportar en las últimas semanas un cambio en el comportamiento de Claude, el asistente de inteligencia artificial desarrollado por Anthropic. Según testimonios compartidos en foros como Reddit, GitHub y Discord, los límites de uso se estarían consumiendo a una velocidad mayor que antes, afectando tanto a usuarios gratuitos como a suscriptores de planes pagos.

La situación ha escalado al punto de que la propia Anthropic tuvo que pronunciarse para explicar lo que ocurre. De acuerdo con la compañía, no se trata de un error puntual, sino de una combinación de factores técnicos, ajustes en la plataforma y un aumento significativo en la demanda de usuarios.

Uno de los principales detonantes fue el fin de una promoción temporal que estuvo activa durante marzo de 2026. Durante ese periodo, la empresa había ampliado los límites de uso fuera de las horas de mayor tráfico. Sin embargo, al concluir el 28 de marzo, muchos usuarios interpretaron el retorno a las condiciones habituales como una reducción abrupta en su capacidad de uso.

Usuarios de Claude se quejaron con Anthropic al notar que había modificado el límite de los mensajes.
Usuarios de Claude se quejaron con Anthropic al notar que había modificado el límite de los mensajes.

A esto se suma un ajuste en los límites durante las horas pico. Anthropic confirmó que, en momentos de alta demanda —principalmente en días laborables—, el consumo dentro de las sesiones de cinco horas puede acelerarse. Aunque el límite semanal total no ha cambiado, los usuarios pueden alcanzar su tope en menos tiempo si utilizan el servicio en franjas de alta congestión.

Mayor demanda que capacidad

El trasfondo del problema responde a una situación común en la industria de la inteligencia artificial: la infraestructura no está creciendo al mismo ritmo que la demanda. En los últimos meses, millones de nuevos usuarios se han sumado a Claude, atraídos por la calidad de sus modelos.

Este crecimiento ha generado una presión sobre la capacidad de procesamiento, especialmente en el uso de GPU, lo que obliga a la empresa a gestionar los recursos de manera más estricta. En la práctica, esto se traduce en límites más dinámicos y en un consumo que puede variar según el momento del día.

Anthropic aclaró que el uso de mensajes en Claude se redujo porque terminó la promoción de marzo que tenían.
Anthropic aclaró que el uso de mensajes en Claude se redujo porque terminó la promoción de marzo que tenían.

Factores técnicos que elevan el consumo

Además de los ajustes operativos, existen factores técnicos que influyen directamente en la rapidez con la que se agotan los mensajes. Algunos usuarios identificaron fallos en el sistema de caché de prompts dentro de herramientas como Claude Code, lo que provoca que el modelo tenga que reprocesar solicitudes completas en lugar de reutilizar información previa. Este comportamiento puede multiplicar el consumo de tokens entre diez y veinte veces.

Otro elemento clave es el funcionamiento interno de las conversaciones. En diálogos largos, cada nuevo mensaje obliga al sistema a procesar todo el historial previo para mantener el contexto. Esto significa que, a medida que la conversación crece, también lo hace el costo computacional de cada respuesta.

El uso de herramientas adicionales —como búsquedas web, ejecución de código o integraciones externas— también incrementa el consumo de manera significativa, muchas veces sin que el usuario lo perciba de forma inmediata.

Claude - Anthropic - desarrolladores - IA - tecnología - 29 de marzo
Claude ahora ofrece menos mensajes y usuarios muestran su disconformidad. (Composición Infobae: REUTERS/Denis Balibouse / X: claudeai)

Cómo optimizar el uso

Ante este escenario, los especialistas recomiendan ajustar la forma de uso para evitar consumir rápidamente los límites disponibles. Una de las principales sugerencias es optar por modelos más eficientes, como Sonnet, en lugar de versiones más avanzadas como Opus, que pueden requerir hasta cinco veces más recursos para tareas similares.

También se aconseja iniciar nuevas conversaciones cada cierto número de mensajes, en lugar de mantener hilos demasiado largos. Para conservar el contexto, se puede generar un resumen y utilizarlo como punto de partida en un nuevo chat.

Otra alternativa es aprovechar funciones como “Proyectos”, que permiten cargar documentos una sola vez y reutilizarlos sin repetir el consumo de tokens. Asimismo, realizar tareas intensivas fuera de las horas pico puede ayudar a optimizar el uso disponible.

En paralelo, han surgido herramientas externas como extensiones de navegador que permiten monitorear el consumo de créditos en tiempo real, lo que facilita una mejor gestión de las sesiones.