Imprimir Artículo

GoogleBots
4 de cada 10 visitas o interacciones con nuestros sitios web, blogs, redes sociales y más no son realizadas por humanos. ¿Estamos perdiendo recursos y tiempo con nuestra «gestión digital»?

Uno de los grandes problemas recae también en las plataformas publicitarias como Google o Facebook que lideran el mercado internacional y no cuentan con la transparencia deseada en cuanto al porcentaje de interacciones y acciones realizadas en anuncios que no son generadas por humanos sino por robots, significando millones de dólares perdidos de parte de anunciantes que no pueden comprobar la efectividad real de su inversión y en algunos casos la validez de la analítica de sus sitios, aplicaciones y campañas.

Crecimiento inversión publicitaria por medio 2017 – 2020 (Proyección Statista).

Crecimiento inversión publicitaria 2017 2020

¿Qué son los bots y cómo afectan a las marcas?

Los bots son programas informáticos responsables de generar visitas falsas en sitios web y contenido de los mismos, afectando resultados, análisis e imagen de marca.

En 2017, el 42,2% del tráfico web no fue real, a lo que se suma la tasa de crecimiento anual de robots «buenos» en un 8,8% y de robots «malos» en un 9,5%.

 

Visitas Robots Buenos y Malos Web

Fuente: https://www.globaldots.com/2018-bad-bot-report-the-year-bad-bots-went-mainstream/

 

Los robots “buenos” son los que utilizan algunos servicios de indexación, RSS y los principales buscadores como Google, Bing, Yahoo y otros que visitan millones de sitios diariamente para verificar e indexar nuevos contenidos, velocidad y otros factores en sitios web y poder presentar resultados actualizados y relevantes a usuarios en sus búsquedas.

Generalmente las herramientas de analítica web identifican a los bots de motores de búsqueda y no los muestra como visitas de la página.

 

Tipos de bots maliciosos:

 

Es cada vez más común la existencia de bots creados por hackers o spammers que utilizan código especial para simular visitas en sitios web, cada vez de manera más “humana”, visitando varias páginas de un sitio web, simulando permanencia en las mismas e incluso clics en elementos específicos, alterando la medición efectiva de resultados para marcas y poniendo en riesgo los contenidos, estabilidad y estructura del sitio web.

Impersonators:


Afectan a todos los sitios web, su objetivo es reducir la disponibilidad del sitio, robo de información, hacking de servidores y afectación de tiempo de carga.

Herramientas de Hackeo:

Afectan principalmente a portales que utilizan gestores de contenido como WordPress, Joomla, Drupal y otros. Su objetivo principal es robo de información y hacking de servidores.

 

Scrapers:
Afectan a sitios de comercio electrónico y se enfocan en robar contenidos, alterar precios y ofertas existentes en los portales y tiendas en línea.

 

Spammers:

Afectan a todos los sitios web y se enfocan en generar comentarios ficticios con enlaces a otros sitios e inserción de código para generar links referidos a otros sitios web.

Los sitios web más afectados son los que reciben bajo volumen de visitas y que cuentan generalmente con menores niveles de seguridad en sus servidores y configuración.

Sin importar el tamaño de su sitio se estima que en promedio un tercio de las visitas que recibe son de bots maliciosos.

Implicaciones para las marcas

 

Es importante tomar acciones para filtrar todo tráfico extraño o fraudulento para poder analizar datos reales y así evaluar efectividad de acciones de marketing, contenidos más atractivos del sitio, perfil de visitantes, conversiones, registros y ventas conseguidas, entre otros.

 

Algunas marcas poco éticas inclusive contratan tráfico de bots para mejorar sus resultados reales presentando grandes números de visitas en sus reportes y así parecer sitios web muy populares.

 

Anunciantes pueden protegerse de este tipo de reportes fraudulentos solicitando acceso completo a la analítica de los sitios web en donde se ofrecen espacios publicitarios u opciones de promoción a fin de analizar exactamente las fuentes de tráfico y comportamiento de visitas a fin de evaluar la calidad de las mismas.

 

¿Qué pueden hacer las marcas?

 

Pese a que las opciones son limitadas, las mejores prácticas para reducir visitas web falsas generadas por bots se enfocan en:

  • Trabajar en campañas segmentadas a públicos internos, de bases de datos y comunicación personalizada basada en CRM.
  • Bloquear mediante la configuración de exclusiones en reportes de analítica a fuentes de tráfico “extrañas”, que nos visitan por primera vez (nuevas visitas) y que cuentan con altos niveles de rebote (visitas que están en nuestra página durante segundos y no visitan páginas adicionales).
  • Revisar guía de exclusión de bots en Google Analytics
  • Contar con certificados de seguridad activos con actualizaciones automáticas.
  • Generar procesos internos de verificación y bloqueo de tráfico de fuentes referidas considerando el listado de reportes y filtros de bots de Google

Los responsables de análisis y manejo de analítica de páginas deberán contar con las recomendaciones anteriores y crear informes filtrados con visitas reales a fin de poder estudiar datos reales para tomar decisiones a fin de mejorar estrategias y acciones digitales enfocadas en resultados reales para su marca.

 

 Juan Pablo Del Alcázar Ponce
@jpdelal

 

[yasr_overall_rating]