Seguridad

Los bots sesgan los análisis de marketing y cuestan millones a las empresas

La actividad de los bots en los sitios web está sesgando los análisis de marketing y costando millones a las empresas anualmente, según un informe publicado el martes por una empresa de detección y mitigación de bots.

Netacea sostuvo en su informe que el problema de los análisis sesgados es tan costoso para las empresas como el fraude de clics.

El fraude publicitario cuesta a las empresas 42.000 millones de dólares anuales, o el cuatro por ciento de sus ingresos, el mismo porcentaje que se pierde anualmente debido a análisis sesgados, señaló el informe basado en una encuesta de 440 empresas en los sectores de viajes, entretenimiento, comercio electrónico, servicios financieros y telecomunicaciones. sectores en los EE.UU. y el Reino Unido

De las empresas encuestadas, el 73 % reveló que se vio afectado por el fraude de clics, que les costó un promedio del cuatro por ciento anual, mientras que el 68 % reconoció que se vio afectado por análisis sesgados, con una pérdida promedio del 4,07 % en ingresos perdidos.

El informe explica que los piratas informáticos utilizan los bots para comprar productos antes que otros clientes, piratear cuentas con contraseñas robadas, verificar la validez de los detalles de la tarjeta robada y robar contenido o precios mediante raspado masivo.

Pero incluso si no dañan directamente, continuó, los bots pueden sesgar los datos que llevan a los equipos de marketing a tomar malas decisiones. Los análisis sesgados por los bots pueden ocultar lo que hacen los clientes reales, lo que hace imposible dirigirse a audiencias genuinas.

“Los bots pueden sesgar todas las estadísticas porque no se tiene una idea del mercado real”, dijo Rosemary Coates, presidenta de Blue Silk Consulting, una firma de asesoría comercial en Los Gatos, California.

“No es fiel a la realidad de lo que está sucediendo en el mercado”, dijo al E-Commerce Times.

Malos datos, malas decisiones

Eso puede ser problemático para los especialistas en marketing que no controlan sus campañas sobre la marcha. “Se irán de una campaña después de haber gastado mucho dinero y obtener cero retornos”, observó Liz Miller, vicepresidenta y analista principal de Constellation Research, una firma de consultoría e investigación tecnológica en Cupertino, California.

“Alguien está pagando una cuenta que la marca tiene que pagar”, dijo al E-Commerce Times.

Los análisis sesgados pueden conducir a malas decisiones de marketing, señaló el informe. En su encuesta, encontró que más de la mitad de las empresas realizaron promociones especiales (54 %), pidieron nuevas existencias (55 %) o “gastaron” un presupuesto de marketing (55 %) debido a datos incorrectos causados ​​por bots.

“Dado que los bots a menudo representan hasta la mitad del tráfico web, las pérdidas por malas decisiones comerciales tomadas debido a análisis sesgados pueden ser significativas, desde millones hasta unos pocos miles de millones de dólares”, explicó Brian Uffelman, vicepresidente y evangelista de seguridad en PerimeterX, un proveedor de servicios de seguridad web en San Mateo, California.

“Los bots sesgan muchos KPI y métricas, incluido el seguimiento y la participación de los usuarios, la duración de la sesión, las tasas de rebote, los clics en anuncios, las proporciones de búsqueda de libros, los datos de la campaña y el embudo de conversión”, dijo al E-Commerce Times.

“Para los sitios de comercio electrónico, viajes y medios, los bots de raspado no autorizados imitan a los humanos al verificar de forma dinámica los listados, los precios y el contenido, lo que da como resultado datos sesgados”, agregó.

Socavando la confianza de los datos

El informe también encontró que la mayoría de las empresas basan al menos una cuarta parte de sus decisiones comerciales y de marketing en análisis que son vulnerables a ser sesgados por bots.

Esa amenaza de datos sesgados puede alejar a los especialistas en marketing de la analítica. “Lo que creemos que está sucediendo es que las personas no confían en sus datos porque cuando toman decisiones basadas en datos, no les sale bien, probablemente porque sus datos son basura”, sostuvo Matthew Gracey-McMinn, jefe de investigación de amenazas de Netacea. .

“Están recibiendo datos incorrectos debido a los bots”, dijo al E-Commerce Times.

Uffelman agregó que muchos profesionales de marketing tienen la idea errónea de que Google Analytics está filtrando el tráfico de bots.

“Google Analytics es bueno para filtrar spam y algunos rastreadores, pero los bots de hoy en día son mucho más sofisticados y, como resultado, las capacidades integradas de Google no los manejan de manera confiable”, dijo.

“Filtrar sesiones dentro de Google Analytics es una operación compleja y lenta que a veces puede excluir un buen tráfico de usuarios”, continuó. “La mayoría de las empresas no reconocen el problema y continúan tomando decisiones utilizando datos contaminados”.

Fe fuera de lugar

Una gran cantidad de empresas también cree que los firewalls de aplicaciones web (WAF) y los sistemas de prevención de DDoS pueden proteger sus datos para que no sean envenenados por bots, con un 71 % expresando su fe en los sistemas de prevención de DDoS y un 73 % en los WAF.

“Cuando se trata de tráfico de bots en particular, los WAF simplemente no son suficientes”, sostuvo Uffelman. “Las sofisticadas técnicas de ataque de los bots malos han superado con creces cualquier mejora incremental en la tecnología de administración de bots WAF”.

Gracey-McMinn explicó que los WAF están diseñados para detener los ciberataques tradicionales y la prevención DDoS busca un ataque masivo.

“Sin embargo, los bots son muy inteligentes, por lo que probarán cuántas solicitudes se pueden realizar en un sitio web antes de que la prevención DDoS entre en acción y permanezcan por debajo de ese número”, dijo.

“Los bots explotan las vulnerabilidades de la lógica empresarial, en lugar de cosas como los límites de capacidad y la inyección SQL que los WAF y la prevención DDoS están diseñados para detener”, agregó.

Los WAF no son totalmente ineficaces contra los bots, respondió James McQuiggan, un defensor de la conciencia de seguridad en KnowBe4 en Clearwater, Florida.

“Se pueden implementar algunos filtros en los registros para filtrar los bots y los datos tergiversados”, dijo al E-Commerce Times.

Los filtros pueden incluir la detección por fuente de tráfico. “Si hay un aumento en las conexiones de fuentes directas, eso puede apuntar a un bot”, dijo.

La duración de la sesión puede ser otro filtro valioso. «Varias sesiones cortas también pueden señalar la actividad del bot», explicó.

La geolocalización de direcciones IP puede ser otro filtro valioso. “Si ve mucho tráfico de China, Corea del Norte o Rusia para un anuncio en inglés basado en EE. UU., es una apuesta segura que es un bot”, sostuvo.

Mejor cooperación

Un factor que contribuye al éxito de la contaminación de datos por parte de los bots es la falta de comunicación entre los equipos de seguridad y marketing. “Muy a menudo, los equipos de seguridad no saben lo que está pasando”, dijo Gracey-McMinn.

“Necesitamos comunicación entre las funciones comerciales para facilitar las respuestas adecuadas”, señaló.

“Lo que tenemos que empezar a hacer es que el CISO y el CMO analicen juntos los ataques cibernéticos y el fraude”, agregó Miller.

“Si la seguridad descubre un comportamiento anómalo en la red”, continuó, “tiene que informar a marketing y preguntar si este comportamiento es anómalo o simplemente tenemos una gran promoción en marcha”.

Recomendaciones de mejores prácticas

Para ayudar a identificar posibles problemas, Netacea incluyó en su informe estas preguntas para preguntar si hay motivos para sospechar que los bots están distorsionando los análisis de marketing:

¿Se ha disparado el número de nuevas sesiones en su sitio? Una cantidad anormalmente grande de sesiones nuevas junto con una tasa de rebote alta y una duración de sesión baja es un indicador de actividad de tráfico automatizado.

¿La duración promedio de su sesión es inferior a tres segundos? Es posible que una duración de sesión baja recurrente no se deba a la velocidad de su sitio web, sino a los rastreadores que raspan su sitio en busca de imágenes y contenido.

¿Tu tasa de rebote promedio es alta? Ya sea en todo el sitio o en una selección de páginas, una alta tasa de rebote de entre el 95 y el 100 por ciento implica la presencia de tráfico de bots.

¿Tu tasa de conversión ha bajado? Un aumento en las sesiones nuevas sin un aumento en las conversiones reducirá su tasa de conversión general.

¿Ha aumentado el tráfico directo y de referencia? Estos dos canales son fuentes comunes de tráfico de bots y donde es probable que vea los picos más altos de tráfico.

LEER  Plataformas compartidas, fallas compartidas: ¿interoperabilidad significa vulnerabilidad?

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba