Crawlers, Bugs y capturadores web.

 En ocasiones los datos perseguidos por un hacker se encuentran repartidos en más de un servidor. Esto le obligará a rastrear la ubicación de las distintas partes y a obtener la información necesaria de cada servidor para poder acceder a su objetivo. Los programas que usan los hackers para automatizár esas acciones son los llamados web crawlers, y se usan para desentrañar toda la arquitectura de sitios web.

  Una vez que el hacker dispone de toda la información básica necesaria, realiza una búsqueda de información sobre las posibles vulnerabilidades de sus objetivos. Generalmente se tratan de errores de software, y por este motivo se les denominan bugs. Tienes que saber que existen aplicaciones, genéricamente llamadas bugs trackers, que se usan para el seguimiento y gestión de estos bugs. Es facil encontrar en la red bugs trackers enfocados a facilitar el hacking, e igualmente, es fácil encontrar programas diseñados para explotar los bugs de diferentes aplicaciones (exploits), especialmente de servidores.

 El hacker estudiará los servidores a través de un proxy, de un modo poco agresivo y en intervalos de tiempo controlados para burlar un posible firewall. Por último, un estudio concienzudo de todo el código visible podría facilitarle pistas sobre nombres de directorios, posibles estructuras SQL usadas para las consultas a bases de datos, nombres de campos, variables, etc. Para esto, es de gran ayuda un capturador web, o como también se le denomina, un web snake.

  Seguro que entiendes, después de todo esto, lo importante que es realizar auditorías de seguridad al servidor web, realizar auditorías a las bases de datos que manejan nuestras aplicaciones web, y escribir cuidadosamente el código que pudiera ser visible.