Por Vicente Motos 14 de marzo de 2012

Incapsula, un proveedor de seguridad en la nube, ha publicado un estudio basado en el estudio de 1.000 sitios web que demuestra que el 51% del tráfico web es producido por programas de software automatizado y que la mayoría es potencialmente dañino: exploits automáticos de hackers, espías, scrapers y spammers.

La compañía dice que, por lo general, sólo el 49% de los visitantes de un sitio web son humanos reales y que el tráfico no-humano es casi invisible al no ser reconocido por software de análisis.

Esto significa que los sitios web están llevando una gran carga de coste oculto en términos de ancho de banda y tienen mayores riesgos de interrupción del negocio o de sufrir otros ataques.

He aquí un desglose del promedio de tráfico de un sitio web:

  • El 5% son herramientas de hacking en busca vulnerabilidades no corregidas o nuevas en un sitio web.
  • El 5% son scrappers.
  • El 2% son mensajes de spam automatizados.
  • El 19% son «espías», recogiendo la inteligencia competitiva.
  • El 20% corresponde a tráfico automático de los motores de búsqueda, si bien este tráfico es benigno.
  • El 49% restante es de gente navegando por Internet.

Fuente: ZDNet y Hack Players

Write a comment:

*

Your email address will not be published.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.