El CEO de Cloudflare, Matthew Prince, anticipó que en 2027 los robots impulsados por inteligencia artificial (IA) superarán a los humanos como principales navegantes de la web, una tendencia alimentada por el crecimiento imparable del tráfico automatizado y el avance de la IA generativa.
El aumento constante del tráfico originado por bots no solo modifica la dinámica del internet actual, sino que plantea desafíos inmediatos para la infraestructura digital, según advirtió Prince en entrevista durante la conferencia SXSW en Austin, Estados Unidos.
Por qué es probable que los robots superen el número de humanos en la web
El pronóstico parte de un cambio sustancial: antes de la irrupción de la IA generativa, el tráfico de bots representaba aproximadamente el 20% del total de la actividad digital. Ahora, la proyección de Prince indica que, en menos de un lustro, la cantidad de bots en línea podría superar a la de usuarios humanos.
El CEO contextualizó esta transformación señalando que los bots dotados de IA recorren miles de páginas web al recopilar información para satisfacer pedidos complejos de los usuarios, en contraste con la navegación “limitada” de una persona al realizar búsquedas o compras en línea.
Además, estas cifras y la velocidad de cambio que produce la IA establecen un umbral inédito para la gestión y escalabilidad de los servidores web.
Cuáles son las consecuencias de la presencia masiva de robots en la web
La consolidación de los robots como protagonistas del tráfico digital abre nuevos desafíos, tanto de capacidad como seguridad para la infraestructura de internet.
El ejecutivo advirtió que “con el auge de la IA generativa y su insaciable necesidad de datos, estamos viendo un aumento que nos lleva a sospechar que, en 2027, la cantidad de tráfico de bots en línea superará la cantidad de tráfico humano en línea”.
Entre las consecuencias detectadas, sobresalen los riesgos de saturación y posible colapso de servidores web, un escenario que Prince comparó con lo ocurrido durante la pandemia de Covid-19.
Entonces, la demanda en plataformas streaming alcanzó niveles críticos, aunque la situación logró estabilizarse tras dos semanas. En este caso, el directivo remarcó que la tendencia actual “crece y crece sin parar”, sin signos de desaceleración.
Cómo mitigar el impacto de los robots en los navegadores web
Frente a este desafío, Prince precisó la necesidad de desarrollar nuevas tecnologías capaces de aislar los agentes de IA, protegiendo así los recursos de los sitios afectados.
“Lo que estamos tratando de analizar es cómo construir esa infraestructura subyacente que permita, con la misma facilidad con la que se abre una nueva pestaña en el navegador, ejecutar código nuevo que luego pueda funcionar y dar servicio a los agentes existentes”, dijo.
Qué desafíos plantea la llegada de la inteligencia artificial general
El debate sobre el dominio futuro de los bots en la red se inscribe en un contexto más amplio sobre el desarrollo de la inteligencia artificial general (AGI), tecnología cuyo grado de autonomía podría igualar o superar al humano en 2030, según Google DeepMind.
De acuerdo con el estudio titulado “Un enfoque hacia la seguridad y protección técnica de la AGI”, la entrada de estas IAs avanzadas introduce cuatro áreas críticas de riesgo.
Estos son: su uso incorrecto, como el desarrollo automatizado de malware o ciberataques; desalineación respecto de los valores humanos; errores de desarrollo que pueden desencadenar consecuencias graves e impactos negativos a nivel social y económico, incluyendo la desigualdad y la pérdida de empleos.
Asimismo, Google DeepMind remarcó que la AGI tendría capacidad para razonar, aprender y actuar de manera autónoma en diversos contextos, expandiendo así los desafíos de control y protección para garantizar que su uso permanezca alineado con los intereses humanos.