Acabamos de leer el post que ha publicado Natzir Turrado en su blog y llegamos a la conclusión de que el tráfico agéntico es un poco como las meigas: todos sabemos que «haberlo, haylo…». Pero, lo que hasta hace un par de semanas parecía ciencia ficción, ha resultado ser una realidad muy concreta. Este tipo de métricas llevaba ya un tiempo alterando nuestros cuadros de mando («dashboards» para los que quieren aparentar saber más porque dicen las cosas en inglés), nuestros diseños y nuestra forma de entender Internet.
Y no es una amenaza futura ni una hipótesis teórica: es un fenómeno real, medible y que ya está afectando al rendimiento de muchas webs. Lo vimos de forma muy clara revisando los logs de acceso de uno de nuestros clientes en Maclucan: visitas sin clics, sin eventos de usuario, sin scroll. Sesiones relámpago con comportamiento quirúrgico. ¿Quién entra, extrae un dato y se va sin dejar rastro? Exacto: una IA.
El tráfico agéntico es el nuevo invitado incómodo del SEO y de la analítica web. No es humano, no es bot clásico, y está empezando a alterar tanto la forma en la que diseñamos como los datos con los que tomamos decisiones.
Durante años, nos hemos devanado los sesos debatiendo si la inteligencia artificial nos haría más vagos, más listos o simplemente más prescindibles. Pero este mes de agosto, en plena ola de calor, el debate ha dejado de ser ‘filosófico’ para aterrizar de golpe en los logs de acceso de nuestras webs. Ya no se trata de cómo usamos nosotros la IA, sino de cómo ella nos usa a nosotros. Y lo está haciendo a lo grande.
Skynet todavía no ha tomado conciencia de sí misma, pero ya nos usa a su antojo 😉
¿Qué demonios es el tráfico agéntico?
Hasta ahora teníamos claro que las visitas a una web venían de dos sitios: de personas de carne y hueso, y de bots «clásicos» como las arañitas de Google, que recorren páginas a granel para indexarlas. Pues bien, ese mapa ya no sirve. Ha nacido un tercer tipo de visitante: los agentes de inteligencia artificial.
Se trata de una nueva capa de tráfico, que no son ni bots tradicionales ni usuarios humanos, que ha empezado a merodear por nuestras páginas web. Son agentes de IA que actúan en nombre de personas y que, a diferencia de nosotros, no se detienen a leer ni a hacer scroll: vienen, extraen lo que necesitan y se van. Como una visita exprés de Bilbao a Madrid sin pasar antes por Burgos y, para colmo, sin gastarse ni un euro en la ciudad.
Estos agentes no son rastreadores ciegos ni usuarios despistados, de esos que te destrozan la tasa de rebote en Analytics. Funcionan como emisarios digitales: alguien les encarga una tarea (“dime cuánto vale este producto”, “reserva una mesa en un italiano”, “saca los horarios del tren para ir a Barcelona”), y ellos entran en la web, buscan la respuesta y se van para entregarla en un modelo de inteligencia artificial como ChatGPT o Gemini.
Sin clics, sin scroll, sin dejar huella humana. El intercambio es directo: pregunta, dato, salida.

Los dos tipos de tráfico agéntico: con navegador y sin él
1. Agentes con navegador
Simulan una navegación humana. Renderizan la página, analizan el DOM, y pueden incluso interactuar con botones o formularios.
Ejemplos actualizados (2025):
- Perplexity Comet
- Claude Navigator para Firefox
- GPT-4V Operator
Estos agentes entran en tu web como un ninja: miran, capturan el dato y se esfuman.
2. Agentes sin navegador
Acceden a través de llamadas HTTP o APIs. No cargan la web, no interpretan estilos. Solo extraen datos estructurados.
Ejemplos recientes:
- Firecrawl
- Gemini Fetcher
- OpenRouter
Ambos tipos conforman ya una porción creciente del tráfico agéntico en muchos sites sin que sus responsables lo sepan.
AX: el nuevo UX que necesitas dominar
La llegada del tráfico agéntico nos obliga a cambiar el foco: ya no diseñamos solo para usuarios humanos, sino también para agentes autónomos. Nace así el concepto de AX (Agent Experience): la experiencia que un agente tiene al interactuar con tu web.
Si la UX pensaba en clics, imágenes y jerarquías visuales, la AX exige estructura, semántica y datos limpios.
¿Qué implica diseñar para AX?
- Usar HTML semántico: etiquetas claras y bien jerarquizadas.
- Exponer contenido mediante APIs estructuradas (OpenAPI es el estándar emergente).
- Reducir la “paja” visual: los agentes no interpretan diseño, solo lógica.
¿Y qué implica el tráfico agéntico a mi SEO?
Por resumir un poco: el tráfico agéntico no es un bot que recorre tu web por deporte, ni un humano que curiosea. Es una legión de intermediarios digitales que actúan por delegación, con un encargo concreto, y que cada vez entienden menos tu web como página… y más como un repositorio de datos. Eso sí, el SEO o el GEO son la mejor forma de atraer este tipo de tráfico.
Vamos, que el diseño les da igual. Lo que les interesa, igual que a al buscador de Google o el de Bing, es que todo esté bien organizadito y, seguramente, que haya poca «paja» en el contenido. Es decir, que cuanto menos trabajo semántico les demos, más fácil les resultará encontrar cosas. Eso sí, ya sabemos por experiencia que hacer webs sólo orientadas a datos, tarde o temprano, se acaban dando un batacazo de tráfico, porque Internet se creó para las personas, no para las máquinas.
Pero el problema no es solo que existan y que quieran datos puros, «sin alma». Es que son torpes. Mucho. Se estrellan en el 70% de las tareas que intentan completar. No entienden formularios, no distinguen entre un banner y el producto principal, y a veces ni siquiera saben si han llegado al sitio correcto. Bienvenidos al tráfico agéntico, una nueva era en la que UX ya no significa “User Experience”… sino Agent Experience (AX).
Los nuevos «usuarios» no tienen dedos
Empecemos por lo básico. El tráfico agéntico está formado por visitas que no realiza un humano ni un crawler al uso. Son agentes –de IA, claro– que han recibido una instrucción y se mueven por la web con un objetivo concreto. Algunos usan navegadores de verdad (en modo headless o incluso con Chrome disfrazado), otros tiran directamente de peticiones HTTP o APIs. Y sí, los hay bastante conocidos: el Comet de Perplexity, el Operator de OpenAI, o el Claude para Chrome de Anthropic.
Lo que hacen es sencillo (en teoría): representar al usuario. Tienen un encargo (“busca cuánto cuesta esta lavadora”), entran en tu web, la interpretan como un grafo de datos, extraen la información… y adiós. No hay clic, ni scroll, ni conversión visible. Solo una visita fugaz y silenciosa.
Pero lo que debería ser elegante y eficiente, hoy es un desastre.
Según el benchmark de TheAgentCompany, incluso el mejor agente (Gemini 2.5 Pro) falla en el 70% de las tareas reales. Da igual si es una compra, una cita médica o una consulta de precios. Se pierden, confunden elementos del DOM o simplemente no llegan a completar el encargo.

¿Y a ti quién te mide?
Aquí se abre un melón gordo: ¿cómo mides este tráfico? ¿Cómo lo distingues? Porque el user-agent se disfraza, las IPs rotan, los encabezados se camuflan. A veces parecen humanos. A veces parecen bots. A veces… no sabes ni lo que son.
Y mientras tanto, las webs se adaptan a ciegas. Algunas bloquean agentes por firewall, otras permiten el acceso pero sin entender qué está ocurriendo. Lo curioso es que cuando los agentes fallan, los usuarios también fallan. Y entonces UX pasa a ser AX. Y si tu AX es mala, el agente se va. Y el usuario, también.
El caso reciente entre Cloudflare y Perplexity es ilustrativo: Cloudflare acusa a Perplexity de saltarse robots.txt y de simular ser tráfico humano. Perplexity responde que esos accesos vienen de usuarios reales a través de la nube. ¿Quién tiene razón? Técnicamente, los dos. Y ese es el problema.
¿Cómo nos adaptamos a los agentes?
La respuesta pasa por dos caminos claros:
Mejorar la legibilidad de nuestras webs para máquinas.
Aquí entra en juego el HTML semántico, las APIs bien documentadas, y los estándares como OpenAPI, que permiten a los agentes entender cómo navegar por nuestros servicios sin reventar el sistema. El contenido tiene que seguir siendo legible para humanos, pero también tiene que estar marcado como si fuera para un bibliotecario de Borges con hambre de estructura.
Diseñar experiencias para agentes.
AX no es una moda, es una necesidad. Si los agentes no completan tareas, el valor de nuestra web cae. Y si otros lo hacen mejor (como un marketplace más accesible), ahí se va el tráfico… y el negocio. La propia OpenAI, Perplexity o Anthropic ya están firmando acuerdos con plataformas como Booking o Uber para acceder directamente a sus datos sin pasar por el HTML. ¿Por qué? Porque las APIs son más limpias, más rápidas y más fiables. Y no necesitan andar interpretando CSS confuso.
No olvidarnos de los humanos.
Vale. Bien. Hacer los deberes de cara a las novedades tecnológicas es súper importante. Pero mantener el foco de qué es lo importante y para qué hacemos las cosas, también. Recuerda que, por mucho que nos interese el tráfico agéntico, quienes nos dan de comer de verdad son las personas. Cuida todos tus entornos digitales para que, sobre todo, sean amigables y comprensibles para las personas.

La seguridad es la otra cara del tráfico agéntico
El tráfico agéntico también plantea retos de ciberseguridad. Con más acceso automatizado llegan también nuevas formas de ataque, como las prompt injections: formas de engañar al agente para que revele información sensible. El navegador Comet, de Perplexity, ya fue víctima de una de estas trampas lanzadas desde un inocente post en Reddit.
- Prompt injection: manipulación de agentes para obtener datos no autorizados.
- Scraping masivo: extracción de contenido estructurado sin control.
- Identidades simuladas: bots que se hacen pasar por usuarios reales.
Y claro, como aún no hay un estándar de autenticación fiable para bots, estamos vendiendo entradas sin pedir DNI. El IETF (sí, los que se encargan de poner orden en internet) está trabajando en Web Bot Auth, un sistema de autenticación criptográfica para agentes. Pero aún está verde. Muy verde.
La web orientada a agentes
La tendencia es clara. Vamos hacia una Agent-Oriented Web. Una web donde los humanos delegan tareas a sus agentes personales (como Siri, ChatGPT o Gemini), y estos necesitan operar de forma nativa, segura y predecible. Para eso, necesitamos estándares nuevos.
Pero no olvidemos lo esencial: la web nació para las personas.
Si bien debemos adaptarnos a los agentes y a sus exigencias de estructura, APIs limpias y datos semánticos, no podemos caer en la tentación de diseñar un Internet donde los protagonistas sean solo las máquinas. El verdadero sentido de construir entornos digitales sigue siendo facilitar la vida a las personas, ayudarlas a comunicarse, a descubrir y a crear.
Una Agent-Oriented Web puede ser inevitable, pero una Human-Oriented Web es imprescindible. Porque, al fin y al cabo, nosotros —los humanos— seguimos siendo la auténtica motivación para inventar, mantener y evolucionar el mayor espacio de comunicación que jamás hemos tenido: Internet.


