1. Home
  2. Tutoriales
  3. Otros Tutoriales
  4. Proteccion efectiva contra malos bots o crawlers fuera de control

Proteccion efectiva contra malos bots o crawlers fuera de control

Hemos visto algunos raros casos (3 este año, hasta Julio 2024), de sitios de clientes que mantienen el 100% de su CPU y decenas de procesos en uso 24/7. El crawler de facebook visita url’s que no existen o practicamente hace un DDoS sobre el sitio web.

En todos los casos hemos asistido a los clientes con diferentes metodos.

  • Aplicacion de Caché
  • Reglas de .htaccess
  • Bloqueo de rangos de IPs
  • Reglas ModSecurity

Sin embargo, estos 3 casos especificos, eran casos donde los crawlers o bots de Facebook, Google, Amazon, Tencent, Bing u otros, estaban fuera de control, junto a alguna configuracion de su sitio.

Estos bots estaban fuera de control, ya que hacian decenas de miles (hasta 600.000 solicitudes vimos) de solicitudes al día, en donde casi el 99% del trafico del sitio era solo el cralwer o bot en lugar de tráfico y visitas reales.

Los sitios tienen un tipo de configuracion de sus productos con multiples categorias, subcategorias, filtros, tags, que permite generar combinaciones casi infinitas, es decir, infinitas paginas para el crawler que visitar.

Finalmente se ha identificado que esto se parece mucho a lo que se discute en estos enlaces:

Solucion contra los bots fuera de control

La solución en estos 3 casos fue activar el modo «Bot Fight Mode» y «Bloquear AI Scrappers» utilizando CloudFlare.

Como siempre, si tienes dudas, necesitas asistencia para activar y configurar CloudFlare, o verificar si tu sitio está siendo victima de este tipo de crawlers/bots, puedes escribirnos a [email protected] o abrir un Ticket de Soporte!

Updated on 28 julio, 2024

Was this article helpful?

Related Articles

Leave a Comment