El tráfico de bots o tráfico no humano es otra adición a todo el nexo de fraude publicitario.
Los editores suelen quejarse de que sus sitios web, anuncios y campañas no funcionan como esperaban. Sienten que el "tráfico no humano", también conocido como "tráfico de bots", es una de las razones.
Sobre nosotros 78% editores informan tráfico de bots en sus sitios, pero solo el 38.4% compra tráfico.
A pesar de que los editores conocen el motivo, el problema persiste ya que no saben por qué ni cómo el tráfico de bots ha estado plagando sus esfuerzos. Entonces, al final, ¿a qué conduce este desconocimiento?
La respuesta es la pérdida de ingresos publicitarios y la disminución de la calidad del sitio web.
Es por eso que hemos compilado una publicación de blog que responde algunas preguntas esenciales relacionadas con el tráfico de bots, como qué es, para qué sirve y cómo bloquearlo o eliminarlo.
¿Qué es el tráfico de robots?

El tráfico de bots simplemente significa que visitantes no humanos llegan a su sitio web. Ya sea que el suyo sea un sitio web grande y popular o uno nuevo, un cierto porcentaje de bots lo visitarán en algún momento.
Los robots de tráfico o robots web están automatizados para visitar sitios web premium y aparecer como personas a las que se puede dirigir (audiencia). Algunos bots realizan tareas repetitivas como copiar, hacer clic en anuncios, publicar comentarios o cualquier actividad que pueda incluirse en malvertising.
Los datos indican que casi el 29% del tráfico del sitio web es tráfico de bots. Esto también significa que el 29% del presupuesto se gasta en procesar visitas a páginas/clics en anuncios artificiales, lo que eventualmente conduce a tasa de rebote alta (mala) (Más adelante sobre esto).
Una tasa de rebote aceptable de un sitio web oscila entre el 45% y el 65%. Normalmente, una cifra así parecería demasiado insignificante. Sin embargo, los editores, anunciantes y especialistas en marketing se han acostumbrado a este rango de tasa de rebote. ¿Por qué?
Esto se debe a que los propietarios de sitios web saben que todo su tráfico no puede ser real. De manera integral, casi el 50% del tráfico web es tráfico de bots. En 2016, el tráfico de bots representó 51.8% tráfico web.
Estas son cifras asombrosas y reflejan la penetración del tráfico de bots.
¿Cómo puede el tráfico de bots perjudicar la analítica?
El tráfico de bots no autorizado puede afectar negativamente a las métricas analíticas, como la tasa de rebote, las conversiones, las visitas a la página, la duración de la sesión y la geolocalización de los usuarios.
Estas desviaciones pueden generar mucha frustración para el editor o el propietario del sitio. Es difícil medir el rendimiento real de un sitio que está inundado de actividad de bots.
Seis tipos de bots a tener en cuenta
1. Haga clic en Bots Traffic
Estos robots realizan clics fraudulentos en anuncios y, por lo tanto, se utilizan para enviar spam de clics. Este es el tipo de bot más amenazante para los editores web, especialmente si sigues el modelo PPC. En consecuencia, los datos analíticos se distorsionan y el presupuesto se erosiona.
2. Descargar robots Traffic
Estos robots también alteran los datos de participación del usuario generados por análisis. Sin embargo, en lugar del recuento de clics en anuncios, se suman al recuento de descargas falsas. En caso de que la descarga final de un libro electrónico sea su conversión final, es probable que estos robots arruinen sus datos de conversión.
Spam Bots Traffic
Este es el tipo de bot más común que interrumpe la participación del usuario con la distribución de contenido injustificado, como comentarios no deseados, correos electrónicos de phishing, anuncios, redirecciones de sitios web inusuales, SEO negativo contra la competencia, etc.
Robots espía
Quizás el tipo más despreciado: estos robots extraen datos individuales o comerciales. Roban información como direcciones de correo electrónico de sitios web, foros, salas de chat y otros.
Robots raspadores
Estos robots visitan un sitio web con intenciones maliciosas: roban su contenido. Están elaborados por raspadores de terceros que son empleados por la competencia para robar contenido, catálogo de productos y precios. Luego, el contenido robado se reutiliza para publicarlo en otro lugar.
Bots impostores
Estos robots aparecen como visitantes genuinos que intentan eludir las medidas de seguridad en línea. Son principalmente estos bots los responsables de ataques como denegación de servicio distribuida. También son los que inyectan software espía en su sitio o aparecen como motores de búsqueda falsos.
AdPushup ayuda a los editores a aumentar sus ingresos publicitarios. Logramos esto mediante nuestro algoritmo de aprendizaje automático, pruebas A/B automatizadas, ofertas de encabezado, formatos de anuncios innovadores y de forma interna. operaciones publicitarias pericia. No dude en comunicarse y preguntar a nuestros expertos..
Bots buenos versus malos
Es importante recordar que no todos los bots son malos.
Los buenos se crean para realizar tareas operativas como extracción de datos antiguos, higiene de contenido, captura de datos, etc. Algunos buenos bots son los bots de verificación de vínculos de retroceso, los bots de monitoreo, los bots de redes sociales, los bots de captación de feeds y los bots de rastreo de motores de búsqueda. Se necesitan buenos bots para que los usuarios tengan una experiencia fructífera al navegar por Internet.
Los robots malos, por otro lado, como se indicó anteriormente, realizan todas las actividades fraudulentas y de spam que resultan en pérdidas tanto para los editores como para los anunciantes.
Aquí hay una infografía sobre cuán diferentes son los robots buenos y malos por naturaleza.
¿Cómo identificar el tráfico de bots?
La mala noticia es que los robots malos se están volviendo más inteligentes. De acuerdo con la Informe Bad Bot 2020 que fue lanzado por Imperva, los bots representaban casi el 40% del tráfico de Internet, del cual los bots malos se llevaban la mayor parte de ese tráfico.
El tráfico de bots llega a los sitios web cada hora. Incluso mientras estás aquí leyendo sobre ello. Al comienzo de este blog, mencionamos que muchos editores no comprenden por qué y cómo el tráfico de bots afecta sus esfuerzos. También que no saben cómo afrontarlo. Entonces, comencemos con la primera pregunta: ¿cómo pueden los editores identificar el tráfico de bots?

#1 Vuelva a verificar la velocidad de carga de la página
Es posible que haya realizado esta prueba hace una semana. Como sabemos, los resultados de estas pruebas se ven un poco diferentes después de cada breve intervalo. Pero la próxima vez que realice una prueba de velocidad de carga de la página y observe una caída considerable (sin que se hayan producido cambios importantes en su sitio), es probable que haya sido afectado por el tráfico de bots.
Puede haber muchas razones para que un sitio cargue lentamente. Sin embargo, en caso de detectar tráfico de bots, comprobar la velocidad de carga de la página es el primer paso. Es posible que muchos robots estén juntos intentando forzar sus servidores y desconectarlos.
#2 Manténgase al tanto de ciertas métricas
Si nota un aumento repentino en el recuento de tráfico y en la tasa de rebote al mismo tiempo, es probable que su sitio esté siendo visitado por tráfico de bots. Aquí, un alto recuento de tráfico significa una gran cantidad de bots o una alta frecuencia de los mismos bots que llegan a su sitio una y otra vez.
Y una alta tasa de rebote significa tráfico no humano que visita sin ningún propósito y simplemente se va sin explorar más páginas web. Un comportamiento de duración de sesión que cambia repentinamente también indica tráfico de bots.
Digamos que su sitio generalmente ofrece contenido de formato largo, por lo que la duración promedio de su sesión es de dos a cinco minutos. Sin embargo, si observa una caída esperada, el tráfico de bots podría ser la razón. Además de estos, también hay otros comunes métricas que debes seguir mirando.
#3 Verifique las fuentes de tráfico y la dirección IP
No sólo las métricas, incluso algunas fuentes de datos pueden actuar como alertas para el tráfico de bots. Un número alto y regular de visitas desde las mismas direcciones IP enfatiza el hecho de que estás recibiendo tráfico de bots. Herramientas como Deep Log Analyzer pueden ayudar a profundizar en interminables registros sin procesar del servidor y poner en lista negra las IP infractoras.
Las fuentes de tráfico extrañas son las siguientes. Supongamos que la mayor parte de su tráfico proviene de la región de EE. UU. y países asiáticos. Un aumento repentino en el tráfico procedente de países árabes (no ingleses) puede ser uno de los indicios.
Todo esto se puede comprobar utilizando herramientas de análisis de sitios web como Google Analytics. Si eres nuevo en GA, se recomienda familiarícese primero con la plataformay luego seguir adelante con la comprensión de los casos de uso con la identificación del tráfico de bots.
#4 Prueba de duplicación de contenido
Su contenido es el corazón de su sitio web. Y con la invasión de bots, podría estar en riesgo. Para detectar el tráfico de bots, siga buscando contenido duplicado para asegurarse de que ningún robot raspador haya visitado su sitio y le haya robado.
Herramientas/plataformas como SiteLiner, Duplichecker, CopyScape son útiles para usar y saber si su contenido se reutiliza y se utiliza en otros lugares.
#5 Rendimiento del servidor:
La desaceleración en el rendimiento del servidor debe revisarse desde la perspectiva del tráfico de bots. Si se enfrenta a un tiempo de inactividad, es muy probable que su servidor haya recibido varios ataques de bot en un corto período de tiempo. Pero el tráfico a menudo resulta en una reducción en el rendimiento del servidor, lo que puede afectar directamente la experiencia del usuario, los ingresos del sitio y su negocio.
#6. IP/ubicaciones geográficas sospechosas:
A veces, las ubicaciones geográficas también ayudan al webmaster a identificar el tráfico de bots. Por ejemplo, si posee un sitio web local que atiende eventos regionales, entonces un aumento en la actividad desde una ubicación remota a la que no presta servicio puede ser lo suficientemente sospechoso como para buscar actividades de bots.
#7. Fuentes lingüísticas:
A menudo, el idioma puede indicar la presencia de tráfico de bots en su sitio. Por ejemplo, si el idioma de su sitio web y el público objetivo es el inglés y ve visitas en diferentes idiomas, esto puede indicar actividad de bot en su sitio. Como webmaster, deberías intentar mantener un registro de estas áreas para detectar y bloquear el tráfico de bots en tiempo real.
¿Cómo detener el tráfico de bots?

Detectar el tráfico de bots una vez requiere inmediatamente detener el tráfico de bots de una vez por todas. Los bots son como virus que atacan su sitio web, distorsionan sus sistemas establecidos, roban sus datos y más. Pero, afortunadamente, existen métodos que pueden ayudarte a protegerte contra ella. Aquí tienes:
- Arbitraje legítimo: Compre tráfico sólo de fuentes conocidas. Para garantizar un tráfico comprado pero seguro, muchos editores practican arbitraje de tráfico para garantizar campañas basadas en PPC/CPM de alto rendimiento.
- Usar Robots.txt: Coloque robots.txt para evitar que los robots dañinos rastreen sus páginas web. Es posible que los editores también quieran asegurarse de que la configuración del rastreador sea la necesaria para evitar problemas en los anuncios de AdSense.
- JavaScript para alertas: configura JavaScript para alertar sobre bots. Tener JS contextual en su lugar actúa como un timbre cada vez que ve un bot o elemento similar ingresando a un sitio web.
- DDOS: Ejecutar denegación de servicio distribuida (DDOS). Los editores que tienen una lista de direcciones IP ofensivas aprovechan la protección DDOS para rechazar esas solicitudes de visita en su sitio web.
- Utilice pruebas de respuesta a desafíos de tipo: Agregue CAPTCHA en formularios de registro o descarga. Muchos editores y sitios web premium colocan CAPTCHA para evitar descargas o robots de spam.
- Examinar archivos de registro: examina los archivos de registro de errores del servidor. A medida que los bots intentan invadir los servidores, examinar minuciosamente los registros de errores del servidor ayuda a encontrar y corregir los errores del sitio web causados por los bots.
Si busca más demanda en su inventario, podemos ayudarlo con nuestras asociaciones con más de 20 socios de demanda global. Más información.
Cómo detectar el tráfico de bots en Google Analytics
Tiempo necesario: 3 minutos.
- Panel de administrador
Visita Google Analytics Panel de administrador y navega a Ver configuraciones:

- Filtrado de bots
En 'Ver configuración', desplácese hacia abajo para detectar Filtrado de bots casilla de verificación.

- Comprobar y guardar
Aplique 'Verificar' en la casilla de verificación, si no está marcada. Pulsa Guardar.

Esta filtración del tráfico de bots desde su cuenta de Google Analytics garantiza que todos los tipos de bots reconocidos (los mencionados anteriormente) se mantengan alejados de sus datos. Sin embargo, es posible que el método no pueda excluir bots no identificados o de un nuevo tipo.
¿Se puede ignorar el tráfico de bots?
También nos encontramos con robots malos en nuestro sitio web de vez en cuando. A continuación se muestra un ejemplo de comentarios spam que recibimos en nuestro blog:

El tratamiento para esto es "marcar estos comentarios como spam" y podríamos haber hecho lo mismo. Pero como somos expertos en el tema, aprovechamos esta oportunidad para explicar por qué decidimos no ignorar esta actividad del bot. Y por qué los editores tampoco deberían hacerlo.
Los editores deberían empezar a preocuparse por el tráfico de bots en su sitio web porque:
- El sitio y los anuncios también se ven afectados por el fraude publicitario disfrazado de tráfico de bots.
- datos/análisis valiosos podrían estar sesgados
- El tiempo de carga del sitio web y el rendimiento general podrían estar deteriorándose.
- El sitio web se está volviendo vulnerable a botnets, ataques DDOS y mal SEO.
- El CPC y los ingresos se ven gravemente afectados por los clics falsos
Para concluir:
Sorprendentemente, sólo el 5% de los editores trabajan con un profesional dedicado a la patrulla antifraude. Esto significa que los editores se están viendo afectados por métodos de fraude publicitario (el tráfico de bots es uno de ellos), pero no hacen prácticamente nada al respecto.
Alentamos a los editores a comprobar constantemente el tráfico de bots en su sitio web, ya que podría provocar una pérdida de ingresos y una mala experiencia del usuario.
Preguntas frecuentes:
El tráfico de bots simplemente significa que visitantes no humanos llegan a su sitio web.
Ya sea que el suyo sea un sitio web grande y popular o uno nuevo, un cierto porcentaje de bots lo visitarán en algún momento.
Haga clic en Bots
Descargar robots
Spam Bots
Robots espía
Bots impostores
Robots raspadores
Vuelva a verificar la velocidad de carga de la página
Manténgase al tanto de ciertas métricas
Verifique las fuentes de tráfico y la dirección IP
Prueba de duplicación de contenido

Shubham es un especialista en marketing digital con amplia experiencia trabajando en la industria de la tecnología publicitaria. Tiene una amplia experiencia en la industria programática, impulsando la estrategia comercial y escalando funciones que incluyen, entre otras, crecimiento y marketing, operaciones, optimización de procesos y ventas.
1 Comentario
muchas gracias por el contenido ahora estoy entendiendo cómo identificar el tráfico de bots...