2. No me diga que el cielo es el límite cuando hay
huellas en la luna.
Una de las mejores frases motivadoras sobre no
ponerse límites, que nos recuerda que el ser
humano puede ser capaz de cualquier cosa que se
proponga. Frase de Paul Brandt.
3. Objetivo
1. Adquirir los conceptos
básicos relacionados con
el hacking
2. Reconocer las
características de el
hacking
3. Conocer la historia de
Diseño de el hacking
● Robots.txt
● Robtex
● Deep Web
● TOR
Contenido
5. Robots.txt
Introducción
• Muchas webs tienen un
archivo llamado
“robots.txt” este
archivo ayuda a las
webs a evitar que los
buscadores indexen
directorios o otro
contenido que no
tendríamos que ver
Contexto
• Como veremos más
adelante hay
buscadores que indexan
contenidos por mucho
que la web no quiera y
esté el archivo
“robots.txt”.
Descripción del problema
• Este es el típico archivo
“robots.txt” con el que
nos encontraremos la
mayoría de veces.
• Como vemos el archivo
“robots.txt” también es
una fuente de
información ya que si lo
bloquean será por que
hay algo interesante
6. ROBOTS.TXT
• Por ejemplo en la dirección
http://www.google.com/robots.txt
• Encontramos un archivo en texto plano.
7. ROBOTS.TXT
• Si nos fijamos en la parte principal hay el esto:
• User-agent: * indica que este archivo sea reconocido
para todos los buscadores.
• Disallow: /search el disallow evita la indexación de una
carpeta o archivo, en este caso no indexara los
contenidos del directorio search ni sdch.
8. ROBOTS.TXT
• Este es el típico archivo “robots.txt” con el que nos
encontraremos la mayoría de veces.
• Como vemos el archivo “robots.txt” también es una
fuente de información ya que si lo bloquean será por que
hay algo interesante
9. Técnicas de Hacking con Buscadores
• Con ayuda de los buscadores podríamos crear dos
categorías generales de ataques, los que se dan antes de
que una web sea indexada y los que se dan después.
Preindexación
Postindexación
10. Preindexación
• En este caso el atacante tiene que descubrir una
vulnerabilidad tipo RFI que sea explotable con una sola
petición inyectando el exploit en el parámetro GET.
• Luego de descubrir la vulnerabilidad el atacante es listo y
no quiere dejar huellas de su ataque.
• Como no quiere dejar huellas le pide a su amigo Google o
su otro amigo Bing que hagan ellos el trabajo sucio.
11. Preindexación
• El atacante para completar la intrusión simplemente
tendrá que pedir a sus amigos que indexen una URL
maliciosa, y al visitar la página para poder indexarla en
condiciones cometerán el ataque a la web.
• Luego si la policía va a investigar la web atacada la policía
comenzaría a mirar por quien cometió el ataque y verían
que los que cometieron el ataque fueron sus amigos,
mientras la policía esta entretenida buscando un nuevo
sospechoso el atacante ha podido atrasar un poco su
captura.
13. Robtex
Introducción
• Robtex es una increíble
herramienta para
encontrar toda la
información que te
puedas imaginar de una
pagina web a través del
nombre o la IP, entre
ellas, las paginas que
comparten el servidor.
Contexto
• Si esta en alguna lista
negra, si se encuentra en
Alexa o en DMOZ,
informacion del Whois y
otros muchos datos muy
interesantes.
Descripción del problema
• Robtex utiliza un robot,
que se llama robtexbot y
captura el titulo y los
metadatos de las webs
que rastrea por internet.
14. Robtex
• Robtex es una increíble herramienta para encontrar toda
la información que te puedas imaginar de una pagina
web a través del nombre o la IP, entre ellas, las paginas
que comparten el servidor, si esta en alguna lista negra, si
se encuentra en Alexa o en DMOZ, informacion del Whois
y otros muchos datos muy interesantes.
• Robtex utiliza un robot, que se llama robtexbot y captura
el titulo y los metadatos de las webs que rastrea por
internet.
19. Cómo escanear tu casa
• Si tienes bastantes dispositivos inteligentes en casa
conectados a la red y quiere saber si alguno es una
brecha potencial de seguridad, puedes comprobarlo
usando el IOT Scanner, una herramienta web que te dice
si alguno de tus dispositivos está expuesto de manera
pública.
https://iotscanner.bullguard.com/
22. Deep Web
• Actualmente a día de hoy la universidad de
California en Berkeley estima que el tamaño real de
la red profunda es de 91.000 Terabytes.
23. ¿Qué podemos encontrar en la deep web?
• Contenido almacenado por los gobiernos de
distintos países.
• Organizaciones que almacenan información.
• Multitud de bases de datos de distinta índole.
• Foros de temáticas diversas.
24. ¿Qué podemos encontrar en la deep web?
• Contenido muy desagradable (Darkweb):
• Venta de drogas.
• Pornografía.
• Mercado negro de sicarios.
• Documentos clasificados
• Foros de crackers en busca de víctimas.
• Phishers, spammers, botnet agents.
• Páginas para comprar o fabricar armas.
• Piratería de libros, películas, música, software, etc.
26. TOR
• El Tor Browser usa la red Tor para proteger tu privacidad
y anonimato. Usar la red Tor tiene dos particularidades:
• Tu proveedor de servicios de Internet (ISP), no podra
rastrear tu actividad en Internet, incluyendo los
nombres y direcciones de los sitios web que visites.
• Los operadores de los sitios web y servicios que uses,
y cualquiera que te esté observando, verán una
conexión proveniente de la red Tor en lugar de tu
dirección de Internet (IP) real, y no sabrán quién eres
a menos que te identifiques de forma concreta.
27. TOR
• La red Tor es una red de túneles virtuales que permite
mejorar la privacidad y seguridad en Internet. Tor
funciona enviando el tráfico a través de tres servidores
aleatorios (también conocidos como repetidores)
28. TOR
• Cuando ejecutes Tor por primera vez verás la ventana de
Configuración de la Red Tor.
29. TOR
• Los transportes conectables son herramientas que Tor
puede usar para camuflar el tráfico que envía. Esto puede
ser útil en situaciones donde un Proveedor de Servicios
de Internet (ISP), u otra autoridad está bloqueando
activamente conexiones a la red Tor.
Obfs3
• Tráfico
aleatorio
Obfs4
• Como
obfs3,
pero con
sensores
de
puentes
FTE
• Camufla
el trafico
como
HTTP
Meek
• Simula
Amazon
Web
Services
30. TOR
• The Hidden Wiki (en español La Wiki Oculta) es una
enciclopedia similar a Wikipedia que se encuentra alojada
en la Internet profunda y funciona como índice para
acceder a páginas de dominio .onion.