El uso de bots de inteligencia artificial en la web ha aumentado considerablemente, llegando a representar una proporción significativa del tráfico en línea, según un informe reciente de Akamai y TollBit difundido a través de WIRED. En el último trimestre de 2025, uno de cada 50 accesos a sitios web correspondía a bots de IA dedicados al scraping, una cifra que en los primeros meses del año pasado era de una de cada 200. Además, la cantidad de bots que ignoran las restricciones del archivo robots.txt creció en un 400 %, mientras que el número de sitios que intentaron bloquear estos agentes automatizados aumentó en un 336 %. Estos bots emplean técnicas sofisticadas para enmascarar su actividad, simulando comportamientos humanos y modificando sus solicitudes para evadir los mecanismos de detección, lo que dificulta su identificación y regulación. La tendencia plantea desafíos para las empresas que gestionan sitios web, pues muchos de estos bots actúan de manera casi indistinguible del tráfico de usuarios reales. Algunas compañías, como Bright Data, ScrapingBee y Oxylabs, defienden la legitimidad de sus operaciones, argumentando que las actividades de scraping en sitios públicos forman parte de la estructura abierta de internet, siempre que se respeten límites y se utilicen con fines legítimos, como la seguridad cibernética o la investigación periodística. Sin embargo, las medidas anti-bot existentes no siempre logran distinguir entre tráfico malicioso y accesos autorizados, lo que puede afectar tanto a proyectos legítimos como a la seguridad digital. La competencia en este sector ha dado lugar a más de 40 empresas que ofrecen servicios de scraping para entrenamiento de sistemas de IA y otros usos. Muchas están adoptando estrategias como la optimización generativa de motores (GEO), que busca mejorar la visibilidad de contenidos en buscadores y en herramientas de IA, en lugar de bloquear los bots. El avance de estas tecnologías sugiere que el tráfico automatizado continuará creciendo en 2026, impulsando una posible transformación estructural en la web. La relación entre humanos y bots, así como la gestión programática de contenidos, serán clave para definir el futuro de internet; los desafíos estarán en proteger los activos digitales sin limitar el acceso de actividades legítimas en un entorno en constante evolución.