2. El cuerpo humano es el carruaje; el yo, el hombre
que lo conduce; el pensamiento son las riendas, y
los sentimientos, los caballos
(Platón)
3. Objetivo
1. Adquirir los conceptos
básicos relacionados con
la Auditoría Informática
2. Reconocer las
características de la
Auditoría Informática
● 4.1 Herramientas usadas en
Ethical Hacking
Contenido
5. Introducción
● Buscador (motor de búsqueda) es un sistema informático que busca archivos
almacenados en servidores web gracias a sus “spider” (o Web crawler).
6. Introducción
¿Qué es Hacking con Buscadores?
Técnica Utilizada Por Los Pentester Con El Fin De
Recopilar Toda La Información Posible
Sobre:
•
•
•
•
•
•
•
La Organización.
Sus
Sus
Sus
Sistemas.
Objetivos.
Recursos.
Valor De Sus ActivosE Informaciones
Las Personas Que En Ella
Trabajan
Etc.
7. ROBOTS.TXT
• Muchas webs tienen un archivo llamado “robots.txt” este
archivo ayuda a las webs a evitar que los buscadores
indexen directorios o otro contenido que no tendríamos
que ver
• Como veremos más adelante hay buscadores que
indexan contenidos por mucho que la web no quiera y
esté el archivo “robots.txt”.
8. ROBOTS.TXT
• Por ejemplo en la dirección
http://www.google.com/robots.txt
• Encontramos un archivo en texto plano.
9. ROBOTS.TXT
• Si nos fijamos en la parte principal hay el esto:
• User-agent: * indica que este archivo sea reconocido
para todos los buscadores.
• Disallow: /search el disallow evita la indexación de una
carpeta o archivo, en este caso no indexara los
contenidos del directorio search ni sdch.
10. ROBOTS.TXT
• Este es el típico archivo “robots.txt” con el que nos
encontraremos la mayoría de veces.
• Como vemos el archivo “robots.txt” también es una
fuente de información ya que si lo bloquean será por que
hay algo interesante
11. Robtex
• Robtex es una increíble herramienta para encontrar toda
la información que te puedas imaginar de una pagina
web a través del nombre o la IP, entre ellas, las paginas
que comparten el servidor, si esta en alguna lista negra, si
se encuentra en Alexa o en DMOZ, informacion del Whois
y otros muchos datos muy interesantes.
• Robtex utiliza un robot, que se llama robtexbot y captura
el titulo y los metadatos de las webs que rastrea por
internet.
16. Deep Web
• La deep web es aquella parte de la red que contiene
material, información y páginas web que
no están indexadas en ninguno de los buscadores
existentes como pueden ser bing, google, yahoo, etc
17. Deep Web
• Actualmente a día de hoy la universidad de
California en Berkeley estima que el tamaño real de
la red profunda es de 91.000 Terabytes.
18. ¿Qué podemos encontrar en la deep web?
• Contenido almacenado por los gobiernos de
distintos países.
• Organizaciones que almacenan información.
• Multitud de bases de datos de distinta índole.
• Foros de temáticas diversas.
19. ¿Qué podemos encontrar en la deep web?
• Contenido muy desagradable (Darkweb):
• Venta de drogas.
• Pornografía.
• Mercado negro de sicarios.
• Documentos clasificados
• Foros de crackers en busca de víctimas.
• Phishers, spammers, botnet agents.
• Páginas para comprar o fabricar armas.
• Piratería de libros, películas, música, software, etc.
20. TOR
• El Tor Browser usa la red Tor para proteger tu privacidad
y anonimato. Usar la red Tor tiene dos particularidades:
• Tu proveedor de servicios de Internet (ISP), no podra
rastrear tu actividad en Internet, incluyendo los
nombres y direcciones de los sitios web que visites.
• Los operadores de los sitios web y servicios que uses,
y cualquiera que te esté observando, verán una
conexión proveniente de la red Tor en lugar de tu
dirección de Internet (IP) real, y no sabrán quién eres
a menos que te identifiques de forma concreta.
21. TOR
• La red Tor es una red de túneles virtuales que permite
mejorar la privacidad y seguridad en Internet. Tor
funciona enviando el tráfico a través de tres servidores
aleatorios (también conocidos como repetidores)
22. TOR
• Cuando ejecutes Tor por primera vez verás la ventana de
Configuración de la Red Tor.
23. TOR
• Los transportes conectables son herramientas que Tor
puede usar para camuflar el tráfico que envía. Esto puede
ser útil en situaciones donde un Proveedor de Servicios
de Internet (ISP), u otra autoridad está bloqueando
activamente conexiones a la red Tor.
Obfs3
• Tráfico
aleatorio
Obfs4
• Como
obfs3,
pero con
sensores
de
puentes
FTE
• Camufla
el trafico
como
HTTP
Meek
• Simula
Amazon
Web
Services
24. TOR
• The Hidden Wiki (en español La Wiki Oculta) es una
enciclopedia similar a Wikipedia que se encuentra alojada
en la Internet profunda y funciona como índice para
acceder a páginas de dominio .onion.