SlideShare una empresa de Scribd logo
1 de 21
Descargar para leer sin conexión
“Año de la lucha contra la corrupción y la impunidad”
INSTITUTO DE EDUCACIÓN SUPERIOR TECNOLÓGICO PRIVADO
“Santiago Antúnez de Mayolo”
PROGRAMA DE ESTUDIOS
“ DISEÑO Y PROGRAMACIÓN WEB”
MONOGRAFÍA
ASIGNATURA : Comunicación Efectiva
DOCENTE : LÁZARO SOLIS Wilmer
INTEGRANTES : ALANYA JAVIER Josue David
BALBIN ROJAS Yosselin Arelis
MAYHUA VALER Ruth
RAMIREZ SAMANIEGO Emer Brando
ROJAS PRUDENCIO Yessica
Palian-Huancayo
2019
““LA DEEP WEB”
Dedicada a nuestros padres que siempre
han estado presente todo este tiempo apoyándonos
de una u otra manera, además de que queremos
prevenir futuros desastres para los jóvenes.
A nuestros amigos quienes nos han apoyado
con su conocimiento acerca del tema y dándonos
información de sus propias experiencias.
Y a todos aquellos que nos alentaron para terminarlo.
Los autores.
INDICE
PORTADA
DEDICATORIA
INDICE
INTRODUCCIÓN
CAPITULO I: DEEP WEB
1.1. DEFINICIÓN……………………………………………………………………………………………………….5
1.2. ORIGEN …………………………………………………………………………………………………………… 6
CAPITULO II: TAMAÑO DE LA DEEP WEB
2.1. TAMAÑO ………………………………………………………………………………………………………… 7
CAPITULO III: DENOMINACIÓN DE LA WEB
3.1. DENOMINACIÓN……………………………………………………………………………………………….8
CAPITULO IV: EL INTERNET ACADEMIA INVISIBLE
4.1. ACADEMIA INVISIBLE……….…………………………………………………………………………………9
4.1.1 Tamaño de la Internet académica invisible…………………………………………………………..10
CAPITULO V: METODOS DE PROFUNDIZACIÓN DE LA DEEP WEB
5.1. METODOS DE PROFUNDIZACION…………………………………..……………………………………11
CAPITULO VI: NIVELES DE LA DEEP WEB
6.0. NIVEL 0………………………………………………………………………………………………………………14
6.1. NIVEL 1…………………………………………………………………………………………………………… ..14
6.2. NIVEL 2………………………………………………………………………………………………………………14
6.3. NIVEL 3………………………………………………………………………………………………………………14
6.4. NIVEL 4………………………………………………………………………………………………………………15
6.5. NIVEL 5………………………………………………………………………………………………………………15
6.6. NIVEL 6………………………………………………………………………………………………………………16
6.7. NIVEL 7………………………………………………………………………………………………………………16
6.8. NIVEL 8………………………………………………………………………………………………………………16
CAPITULO VII: VENTAJAS Y DESVENTAJAS DE LA DEEP WEB
7.1. VENTAJAS……………………………………………………………………………………………………………17
7.2. DESVENTAJAS……………………………………………………………………………………………………..18
CONCLUSIONES
REFERENCIAS BIBLIOGRAFICAS
ANEXOS
INTRODUCCION
La Deep Web es todo aquello que la Internet convencional quiere esconder del
mundo, es decir, en la “superficie” de Internet, no muestran lo cruel de la realidad,
así como lo que no debe ser conocido, muchos motores de búsqueda lo ocultan así
como Google.
Y como es de suponer, parte del contenido que podemos encontrar en la web
profunda será confidencial, bien porque se trate de información que esté rozando
el límite de la legalidad con contenido dinámico o porque es directamente ilegal,
como páginas dedicadas a la pornografía infantil, contrabando, información
clasificada, terrorismo, etc.
Por ello en este trabajo se darán a conocer toda la información que se ha
recolectado según nuestros limites. En el primer capítulo hablaremos de su
concepto y origen, el segundo capítulo del tamaño de la deep web, en el tercero se
desarrollara su denominación, en el cuarto capítulo el internet academia invisible,
en el quinto capitulo métodos de profundización, en el sexto capitulo están sus
niveles. Y por último el séptimo capitulo las ventajas y desventajas.
Es importante enterarnos de este tema por que nos precavemos de lo que el
internet oculta y podemos navegar sin problemas por el internet.
Esta presente investigación pretende contribuir con el bienestar de la sociedad,
sobre todo con los jóvenes de hoy en día, ya que con tanta información podrian ser
un peligro para todos y para el mismo.
Los autores.
CAPITULO I
DEEP WEP
1.1. DEFINICIÒN
Internet profunda (del inglés, deep web), internet invisible o internet
convencionales, que engloba a todo el contenido de Internet que no puede ser
indexado por los motores de búsqueda comunes como Google, Yahoo, Bing, etc.
Esta definición nos genera la de Surface web o Web superficial, entendida como
aquel contenido que conocemos, es decir, la Surface web está constituida por
todas aquellas páginas a las que miles de usuarios pueden acceder a diario, pues
no se encuentran ocultas para los buscadores, y siempre pueden ser localizadas
de una u otra forma. El término se atribuye al informático Mike Bergman. Es el
opuesto al Internet superficial.
A la Internet profunda también se le conoce como Internet invisible, Deepnet,
Darkweb, Dark Web, Undernet y hidden Web.
El término de Deep Web es utilizado frecuentemente para referirse a páginas de
Internet que están funcionando bajo software que protege su identidad y
geolocalización, como Tor, sin embargo la diferencia es que éstas ocultan su
identidad de forma intencional, frecuentemente para ocultar actividad y oferta de
contenido ilegal—como pornografía infantil, oferta de sustancias, oferta de
servicios ilegales, etc.—, de ahí que Deep Web y Dark Web sean términos que se
usan coloquialmente para referirse a las páginas con dicha oferta.
1.2.ORIGEN
La Deep Web (Red profunda), antes (1994) denominada Invisible Web, ha sido
bautizada de esta manera en 2001 debido a que no es accesible directamente a
través del uso del principal medio de navegación superficial en estos tiempos: los
motores de búsquedas tradicionales o estándar.
El internet se ve divido en dos ramas, La Internet profunda y la superficial. El
Internet superficial se compone de páginas estáticas o fijas, mientras que Web
profunda está compuesta de páginas dinámicas. Las páginas estáticas no
dependen de una base de datos para desplegar su contenido si no que residen en
un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo
contenido nunca cambia. Todos los cambios se realizan directamente en el código
y la nueva versión de la página se carga en el servidor. Estas páginas son menos
flexibles que las páginas dinámicas. Las páginas dinámicas se crean como
resultado de una búsqueda de base de datos. El contenido se coloca en una base
de datos y se proporciona sólo cuando lo solicite el usuario.
La principal causa de la existencia de la internet profunda es la imposibilidad de los
motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran parte
de la información existente en Internet. Si los buscadores tuvieran la capacidad para
acceder a toda la información entonces la magnitud de la «internet profunda» se
reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda
pudieran indexar la información de la internet profunda esto no significaría que esta
dejara de existir, ya que siempre existirán las páginas privadas. Los motores de
búsqueda no pueden acceder a la información de estas páginas y sólo
determinados usuarios, aquellos con contraseñas o códigos especiales, pueden
hacerlo.En la Deep Web pueden establecerse contactos que no son monitoreados,
nadie está allí observando. Además las transferencias tanto de mercancía como de
pagos son prácticamente imposible de rastrear. La internet profunda no es una
región prohibida o mística de internet, y la tecnología relacionada con ella por lo
general no es conspirativa, peligrosa o ilegal. En ella se alberga todo tipo de recurso
al que se es difícil de acceder mediante métodos comunes como los motores de
búsqueda populares.Una parte de la internet profunda consiste en redes internas
de instituciones científicas y académicas que forman la denominada Academic
Invisible Web: («Internet académica invisible») la cual se refiere a las bases de
datos que contienen avances tecnológicos, publicaciones científicas, y material
académico en general a los cuales no se pueden acceder fácilmente.
CAPITULO II
TAMAÑO DE LA DEEP WEB
2.1. TAMAÑO
La internet superficial se compone de páginas indexadas en servidores DNS con
una alfabetización y codificación de página perfectamente entendible por los
motores de búsqueda, mientras que la internet profunda está compuesta de
páginas cuyos dominios están registrados con extensiones .onion y los nombres de
los dominios están codificados en una trama HASH. Sirven de forma ad hoc, y no
necesitan registrarse, basta con que tu ordenador tenga funcionando un servicio
onion, que hará las veces de un servicio dns, pero especial para las páginas del
internet profundo. Mediante una red P2P, se replican las bases de datos que
contienen la resolución de nombres HASH.
Mientras que las páginas normales son identificadas mediante el protocolo UDP/IP,
las páginas .onion son repetidas por el ramal al que se ha conectado el navegador
especializado para tal sistema de navegación segura. El sistema de búsqueda es
el mismo que usa BitTorrent. El contenido se coloca en una base de datos y se
proporciona sólo cuando lo solicite el usuario.
En 2010 se estimó que la información que se encuentra en la internet profunda es
de 7500 terabytes, lo que equivale a aproximadamente 550 billones de documentos
individuales. El contenido de la internet profunda es de 400 a 550 veces mayor de
lo que se puede encontrar en la internet superficial. En comparación, se estima que
la internet superficial contiene solo 19 terabytes de contenido y un billón de
documentos individuales.
También en 2010 se estimó que existían más de 200 000 sitios en la internet
profunda.
Estimaciones basadas en la extrapolación de un estudio de la Universidad de
California en Berkeley especula que actualmente la internet profunda debe tener
unos 91 000 terabytes.
La Association for Computing Machinery (ACM) publicó en 2007 que Google y
Yahoo indexaban el 32 % de los objetos de la internet profunda, y MSN tenía la
cobertura más pequeña con el 11 %. Sin embargo, la cobertura de los tres motores
era de 37 %, lo que indicaba que estaban indexando casi los mismos objetos.
CAPITULO III
DENOMINACIÓN DE LA DEP WEB
3 .1. DENOMINACIÓN
Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of
Electronic Publishing, mencionó que Jill Ellsworth utilizó el término «Web invisible»
en 1994 para referirse a los sitios web que no están registrados por ningún motor
de búsqueda.
En su artículo, Bergman citó la entrevista que Frank García hizo a Ellsworth en
1996:14
“Sería un sitio que, posiblemente, esté diseñado razonablemente, pero no
se molestaron en registrarlo en alguno de los motores de búsqueda. ¡Por
lo tanto, nadie puede encontrarlos! Estás oculto. Yo llamo a esto la Web
invisible.”
Otro uso temprano del término Web Invisible o web profunda fue por Bruce Monte
y Mateo B. Koll de Personal Library Software, en una descripción de la herramienta
@ 1 de web profunda, en un comunicado de prensa de diciembre de 1996.15
La importancia potencial de las bases de datos de búsqueda se reflejó en el sitio
de búsqueda, el motor AT1 que se anunció a bombo y platillo a principios de 1997.
Sin embargo, PLS, propietario de AT1, fue adquirida por AOL en 1998, y poco
después el servicio AT1 fue abandonado.
El primer uso del término específico de web profunda, ahora generalmente
aceptada, ocurrió en el estudio de Bergman de 2001 mencionado anteriormente.
Por otra parte, el término web invisible se dice que es inexacto porque:
Muchos usuarios asumen que la única forma de acceder a la web es consultando
un buscador.
Alguna información puede ser encontrada más fácilmente que otra, pero
esto no quiere decir que esté invisible.
La web contiene información de diversos tipos que es almacenada y
recuperada en diferentes formas.
El contenido indexado por los buscadores de la web es almacenado
también en bases de datos y disponible solamente a través de las peticiones o
consultas del usuario, por tanto no es correcto decir que la información
almacenada en bases de datos es invisible
CAPITULO IV
EL INTERNET ACADEMIA INVISIBLE
4 .1. LA ACADEMIA INVISIBLE
Se denomina Internet Académica Invisible o Academic Invisible Web (AIW) a el
conjunto de bases de datos y colecciones relevantes para la academia, o con fines
académicos, que no es posible ser buscado por los motores de búsqueda
convencionales. La preocupación sobre este tema radica en que millones de
documentos permanecen invisibles frente a los ojos de los usuarios
convencionales. Dentro de estos documentos se pueden encontrar artículos, libros,
reportes, documentos de acceso abierto, datos de encuestas, entre otros. El
problema con los motores de búsqueda convencionales es que no muestran
aquellos datos que cambian constantemente, como información climática o
imágenes satelitales y dicha información, al cambiar de manera tan rápida es
imposible de ser indexada por lo que restringe su aparición en los motores de
búsqueda convencionales.
Una aproximación al indexamiento y apertura de la Internet académica invisible son
los motores de búsqueda que se centran en información académica, como Google
Scholar o Scirus. El problema de estos motores de búsqueda mencionados
anteriormente es que fueron creados por compañías comerciales. El portal de
ciencia Vascoda ha demostrado ser la alternativa más efectiva para eliminar el
espacio entre la Internet académica visible e invisible ya que integra bases de datos
de literatura, colecciones de librerías y demás contenido académico mediante un
indexamiento basado en el uso de las etiquetas de cada uno de los dominios que
albergan dicha información.6
Cabe resaltar que no toda la ausencia de esta información en la Internet Visible se
debe a los motores de búsqueda, otro de estos factores se debe a que algunos de
estos documentos son propiedad de editoriales de base de datos.
4.1.1 TAMAÑO DE LA INTERNET ACADEMIA INVISIBLE
El intento más acertado por realizar una medición de la cantidad de documentos
académicos presentes en la web invisible fue realizado por Bergman en 2001 en su
estudio The Deep Web: Surfacing Hideen Value. En dicha investigación Bergman
realizó un listado de los 60 sitios académicos más largos de la Deep Web entre los
que se encontraba el National Climatic Data Center (NOAA), NASA EOSDIS,
National Oceanographic (combined with Geophysical) Data Center (NOAA), entre
otras.
National Climatic Data Center (NOAA) Público
http://www.ncdc.noaa.gov/ol/satellite/satelliteresources.html366,000
NASA EOSDIS Público
http://harp.gsfc.nasa.gov/~imswww/pub/imswelcome/plain.html 219,600
National Oceanographic (combined with Geophysical) Data Center (NOAA)
Público/Pagohttp://www.nodc.noaa.gov/, http://www.ngdc.noaa.gov/ 32,940
DBT Online Pago http://www.dbtonline.com/ 30,500
Alexa Público (parcial) http://www.alexa.com/ 15,860
Right-to-Know Network (RTK Net) Público http://www.rtk.net/ 14,640
Lexis-Nexis Pago http://www.lexis-nexis.com/lncc/ 12,200
DialogPago http://www.dialog.com/ 10,980
Genealogy - ancestry.comPago http://www.ancestry.com/ 6,500
MP3.com Público http://www.mp3.com/ 4,300
Terraserver Público/Pagohttp://terraserver.microsoft.com/ 4,270
ProQuest Direct (incl. Digital Vault) Pago http://www.umi.com 3,172
Dun & Bradstreet Pago http://www.dnb.com3,113
Westlaw Pago http://www.westlaw.com/ 2,684
Dow Jones News Retrieval Pago http://dowjones.wsj.com/p/main.html 2,684
CAPITULO V
METODOS DE PROFUNDIZACIÓN DE LA DEEP WEB
5 .1. METODOS DE PROFUNDIZACION
Las arañas (web crawlers)
Cuando se ingresa a un buscador y se realiza una consulta, el buscador no recorre
la totalidad de internet en busca de las posibles respuestas, sino que busca en su
propia base de datos, que ha sido generada e indexada previamente. Se utiliza el
término «araña web» (en inglés web crawler) o robots (por software, comúnmente
llamados "bots") inteligentes que van haciendo búsquedas por enlaces de
hipertexto de página en página, registrando la información ahí disponible.
Cuando una persona realiza una consulta, el buscador no recorre la totalidad de
internet en busca de las posibles respuestas, lo cual supondría una capacidad de
reacción bastante lenta. Lo que hace es buscar en su propia base de datos, que ha
sido generada e indizada previamente. En sus labores de búsqueda, indización y
catalogación, utilizan las llamadas arañas (o robots inteligentes) que van saltando
de una página web a otra siguiendo los enlaces de hipertexto y registran la
información allí disponible.
[...] datos que se generan en tiempo real, como pueden ser valores de Bolsa,
información del tiempo, horarios de trenes.
El contenido que existe dentro de la internet profunda es en muy raras ocasiones
mostrado como resultado en los motores de búsqueda, ya que las «arañas» no
rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a
páginas protegidas con contraseñas, algunos desarrolladores que no desean que
sus páginas sean encontradas insertan etiquetas especiales en el código para
evitar que sea indexada. Las «arañas» son incapaces de mostrar páginas que no
estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un
signo de interrogación. Pero ahora sitios web no creados con HTML o con signos
de interrogación están siendo indexados por algunos motores de búsqueda. Sin
embargo, se calcula que incluso con estos buscadores más avanzados solo se
logra alcanzar el 16 % de la información disponible en la internet profunda. Existen
diferentes técnicas de búsqueda para extraer contenido de la internet profunda
como librerías de bases de datos o simplemente conocer el URL al que quieres
acceder y escribirlo manualmente.
Tor
The Onion Router (abreviado como TOR) es un proyecto diseñado e implementado
por la marina de los Estados Unidos lanzado el 20 de septiembre de 2002.
Posteriormente fue patrocinado por la EFF (Electronic Frontier Foundation, una
organización en defensa de los derechos digitales). Al presente (2019), subsiste
como TOR Project, una organización sin ánimo de lucro galardonada en 2011 por
la Free Software Foundation por permitir que millones de personas en el mundo
tengan libertad de acceso y expresión en internet manteniendo su privacidad y
anonimato.
A diferencia de los navegadores de internet convencionales, Tor le permite a los
usuarios navegar por la Web de forma anónima. Tor es descargado de 30 millones
a 50 millones de veces al año, hay 0,8 millones de usuarios diarios de Tor y un
incremento del 20 % solamente en 2013. Tor puede acceder a unos 6 500 sitios
web ocultos.
Cuando se ejecuta el software de Tor, para acceder a la internet profunda, los datos
de la computadora se cifran en capas. El software envía los datos a través de una
red de enlaces a otros equipos ―llamados en inglés «relays» (‘nodos’)― y lo va
retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta
trayectoria cambia con frecuencia. Tor cuenta con más de 4 000 retransmisiones y
todos los datos cifrados pasan a través de ―por lo menos― tres de estos relays.
Una vez que la última capa de cifrado es retirado por un nodo de salida, se conecta
a la página web que desea visitar.
El contenido que puede ser encontrado dentro de la internet profunda es muy vasto,
se encuentran por ejemplo, datos que se generan en tiempo real, como pueden ser
valores de Bolsa, información del tiempo, horarios de trenes, bases de datos sobre
agencias de inteligencia, disidentes políticos y contenidos criminales.
Criptomoneda
Logo de Bitcoin, una criptomoneda
Es posible encontrar sitios web que realicen transacciones ilegales (como drogas,
armas, o incluso sicarios) en servidores exclusivos para usuarios de Tor. Es una
práctica común utilizar monedas digitales como el Bitcoin21 que se intercambia a
través de billeteras digitales entre el usuario y el vendedor, lo que hace que sea
prácticamente imposible de rastrear.
Vale la pena acotar que salvo por excepciones de algunos mercados como Silk
Roads, The Trade Route, o Wall Street Market, la mayor parte del comercio en la
deep web se constituye a base de ofertas engañosas y fraudes en general, existe
una gran tendencia a satanizar a comunidades que buscan la libertad de expresión
y el anonimato, en el mundo hispano-hablante esta tendencia fue originada por
blogueros y youtubers que lejos de informar a las comunidades buscan crear
escándalos amarillistas para obtener ingresos por conceptos de publicidad de
sistemas como Adsense. En los últimos años se ha demostrado que el Bitcoin no
es una criptomoneda segura cuando se trata de la confidencialidad de los datos de
sus usuarios, motivo por el cual tendría poco sentido utilizarla en redes de
anonimato como Tor, Freenet, o I2P, cuyos usuarios intentan alcanzar el clímax del
anonimato, por lo cual no se puede descartar tampoco la intervención de empresas
propagandistas que intentan aumentar el valor de mercado del bitcoin.
CAPITULO VI
NIVELES DE LA DEEP WEB
6 .1. NIVELES
Nivel 0
El nivel 0 es la denominada Web común (Common web), la parte de Internet
indexada en los motores de búsqueda, con la información que encontramos cuando
entramos a la World Wide Web. También es conocida habitualmente por otros
términos como "clearnet", en contraposición a la Dark Web, o Internet superficial o
Web de superficie, frente a la Deep Web o Internet profunda.
Nivel 1
El nivel 1 de la Deep Web formaría en realidad aún parte del Internet de superficie,
conteniendo sitios todavía accesibles desde motores de búsqueda, pero también
sitios no indexados, como algunas redes sociales y comunidades, bases de datos
MySQL, alojamientos web, o servicios basados en redes de Intranet.
Nivel 2
Conocido como "Bergie Web", el nivel 2 de la Deep Web sería todavía accesible
para la mayoría de usuarios, incluyendo aún contenido que se podría considerar
como "clandestino", pero que podría estar indexado, como la conocida comunidad
de 4Chan. En este nivel también estarían contenidos y resultados bloqueados por
Google, servidores FTP, sistemas informáticos trampa conocidos como
"Honeypots", porno ilegal, principalmente "Jailbait", o todo tipo de vídeos. Sería
también uno de los niveles de Internet más grande de todos, conteniendo buena
parte de la información de la Red.
Nivel 3
El nivel 3 sería ya propiamente la Deep Web, y únicamente se puede acceder a
través de Proxy, o a través de redes anónimas como Tor para la información más
sensible. Este nivel estaría compuesto por todo tipo de pornografía, imágenes y
vídeos gore, escándalos de famosos (aunque éstos ya han circulado por el Internet
común en alguna ocasión), y especialmente mucha información sobre hacking,
como scripts de gusanos XSS, seguridad informática, vulnerabilidades de Internet
para hackers, análisis de datos, o información sobre todo tipo de virus informáticos.
Nivel 4
El cuarto nivel de la Deep Web se conoce como "Charter Web", y estaría dividido
en dos partes. La primera parte sería accesible desde Tor, y se podría encontrar
todo tipo de material cuestionable, incluyendo vídeos, películas y libros prohibidos.
También es el lugar para el mercado negro, desde juegos ilegales, al comercio de
drogas duras, comercio de especies de animales raros, o incluso el tráfico de
personas o para contratar asesinatos.
Usando Tor para acceder a la Deep WebLa segunda parte del nivel 4 solo sería
accesible mediante un sistema de shell cerrado (Closed Shell System), y su
supuesto contenido es el paraíso para los aficionados a las conspiraciones, la
ufología, la criptozoología, o todo tipo de pseudociencias.
Además de una buena lista de cosas ilegales y realmente enfermizas, quien sea
capaz de llegar hasta el nivel 4 de la Deep Web tendrá acceso supuestamente a
información oculta de todo tipo. Desde información sobre Hardware experimental,
inteligencia artificial, o supercomputación, a planes de experimentos de Tesla,
experimentos no conocidos de la Segunda Guerra Mundial, información sobre "La
Ley de los 13" (las supuestas 13 familias que dominan el mundo), o la ubicación de
la Atlántida.
Nivel 5
A partir del nivel 5 se supone que se encuentra el 80% de la información total de
Internet. Es conocido como "Marianas Web", en referencia a la profunda fosa de
las marianas del Océano Pacífico, y nunca se ha llegado a filtrar información sobre
lo que supuestamente contiene.
El nivel de las Marianas Web de la Internet profunda es donde empieza a mezclarse
realmente la realidad y la leyenda urbana. Si bien las anteriores capas de la Deep
Web existen de verdad (lo discutible sería su estructura y el contenido que
supuestamente tienen), el nivel 5 es mera especulación. Mito o realidad, se pueden
encontrar usuarios que venden supuestos accesos a las Marianas Web, y según se
especula, de existir, probablemente contenga documentación secreta de los
gobiernos.
Supuesto acceso a las Marianas Web
Nivel 6
El sexto nivel de la Deep Web se supone que hace exclusivamente de intermediario
entre las Marianas Web y el siguiente nivel. Para pasar al nivel 7 sería necesario
computación cuántica.
Nivel 7
El nivel 7 de la Deep web se conoce como "The Fog" (la niebla) o "Virus Soup"
(sopa de virus), y es definido habitualmente como una zona de guerra. Todos los
usuarios que llegan hasta aquí tratan a su vez de llegar hasta el nivel 8, el último
nivel de la Deep Web, mientras evitan que otras personas lo consigan, por los
medios que sean necesarios.
Este séptimo nivel de la Internet profunda estaría lleno de código malicioso para
tratar que otros usuarios lleguen hasta aquí e investiguen. Básicamente todos
luchan para mantener a los demás fuera debido al valor de la información y
sistemas del siguiente nivel.
Nivel 8
La última capa de la Deep Web, el nivel 8, se conoce como "The Primarch System",
y es imposible de acceder directamente a este nivel. Se supone que este sistema
Primarch es el que controla Internet, estando incluso fuera de control de cualquier
gobierno u organización.
CAPITULO VII
VENTAJAS Y DESVENTAJAS DE LA DEEP WEB
7.1. VENTAJAS
A pesar de su mala reputación existen movimientos dentro de la web profunda que
buscan recatar su labor social.
1.- Libertad de expresión.
Aunque muchos la dan por garantizada, no es así para todas las personas. Por
ejemplo, en China el contenido de la web esta limitado y censurado, así como la
prensa bajo pena de cárcel. Las atrocidades cometidas por el gobierno chino son
publicadas por la deep web. Es a través de esta que nos enteramos de la realidad
de otros países.
2.- Libros censurados.
Podrás encontrar libros censurados por los gobiernos y también libros regulares.
Este punto también va ligado a la piratería pues aquí no existe el copyright. Por
ende, podrás encontrar prácticamente cualquier libro que desees. Pero cuidado, no
es buena idea descargar prácticamente nada de la deep web por el problema de
los hackers. No querrás ni de casualidad que uno de ellos logre conocer tu cuenta
bancaria.
3.- Investigaciones encubiertas
En mayo de 1996, tres científicos del Laboratorio de Investigación Naval proponían
un mecanismo para que los usuarios pudieran acceder a Internet sin ser
identificados. Así fue creado la web profunda, en principio para realizar
investigaciones. Ahora podrás encontrar investigaciones científicas que no hallaras
en otros sitios o al menos no de forma actualizada.
4.- Activismo.
No sólo existen hackers «malos» y la prueba más famosa de ellos son Wikileaks o
Anonymous. Entre los descubrimientos están los abusos en Guantánamo, la
participación de Estados Unidos en los conflictos de medio oriente, espionaje entre
países, el complot de los alimentos trasgénicos y la lista sigue. Estos activistas
muchas veces basan sus investigaciones en contenidos de la Deep Web.
7.2 DESVENTAJAS
Empecemos a analizar la web profunda por su mala reputación. No hay barreras
aquí, no hay regulaciones, todo es anónimo (o al menos en teoría). La libertad de
expresión es fácilmente tergiversada pero recordemos que ningún invento es
malo en sí mismo, todo depende de su uso.
1.- La web de los criminales.
Aquí podrás encontrar todo tipo de productos: drogas, armas y hasta órganos. Por
lo mismo que es anónima podrás contratar asesinos y hackers.
2.- Los hackers a la orden del día.
Hackers inundan la web profunda y son un peligro constante para cualquiera que
desee entrar en este mundo. Antes dijimos que el anonimato era en teoría y eso
es debido a que siempre está el riesgo de que un hacker profesional pueda
encontrarte y hacerse con tu información.
3.- Contenido perturbador e indeseable.
Existen muchas imágenes filtradas de la deep web en Internet que tú mismo o tú
misma puedes buscar. Numerosos crímenes son perpetuados en todo el mundo,
de estos muchos so recogidos por la deep web. Este es el verdadero motivo por
el cual no muchos se atreven a echar un vistazo; no será muy difícil encontrarte
imagenes de crímenes como mutilaciones, asesinatos o violaciones.
CONCLUSIONES
1. En conclusión podemos afirmar que la mitad de los encuestados conoce
acerca de la deep web, pero no tienen conocimiento acerca de el contenido
que hay dentro de esta web como las paginas Canabies UK, Thor library y
Ceboyachan .Los encuestados no han entrado en esta pagina, sin
embargo saben que si llegan a entrar a esta web su desarrollo académico y
diciplinar se vera afectado de manera negativa debido a que el contenido
que tiene no es adecuado.Algunos estudiantes no analizaban las preguntas
debido a que a la hora de responderlas eran incoherentes e imprecisos,
afirmaban no conocer la pagina y cuando se les preguntaba algo mas a
fondo tenían alguna base por lo tanto otra de nuestras conclusiones es que
los estudiantes con solo ver el nombre del tema como se les hacia confuso
negaban conocerlo.
2. En conclusion podemos afirmar que La deep weeb es una página del mal
tiene pedo filia, venta de estupefacientes,trata de personas etc. pero el
punto principal es en que nos afecta, esta página nos acepta directa e
indirectamente uno o se da de lo que tiene la deep web, esto puede llegara
a ser una presa fácil para los hackers, ellos te sacan la información, sabes
donde vives, tu familia, tus conocidos.
3. A pesar de la gran cantidad de información que contiene Deep Web, sigue
siendo una parte ambigua del mundo digital. Muchos usuarios de Internet
no han oído hablar de eso y creen que lo que ven en sus resultados de
búsqueda de Google es todo lo que la Web tiene para ofrecer. Otros
preferirían que se aboliera, afirmando que se trata de un mundo
clandestino de delincuencia y comportamiento poco ético. Luego están
aquellos que están interesados en las posibilidades de esta frontera
inexplorada, pero simplemente no saben por dónde empezar. Nunca podría
esperar cubrir completamente todos los aspectos de Deep Web en las
páginas de este WordPress. Si uno realmente quiere entender esta riqueza
de conocimiento en expansión, sería mejor que lo exploraran por sí
mismos. La Web profunda no va a desaparecer pronto. Vale la pena
dedicar nuestro tiempo a investigar más a fondo su contenido y aprender a
aprovechar su poder.
REFERENCIAS BIBLIOGRAFICAS
- https://static-b.walac.pe/wp-content/uploads/2017/02/iceberg.png
- " LO MÁS OSCURO DEL INTERNET LA DEEP WEB " Monografía del
curso Métodos y Técnicas de Estudio ESPEJO VILCAPOMA Claudia
Claudia Valentina Espejo Vilcapoma
C. Espejo Vilcapoma
- CREEPY HISTORIAS ORIGINAL
-INTERNET PROFUNDA,WIKIPEDIA
- MODELO DE MONOGRAFIA, WILMER LAZO SOLIS
- NIVELES DE LA DEEP WEB,
https://documentalium.blogspot.com/2018/09/los-niveles-de-la-deep-
web.html
ANEXOS

Más contenido relacionado

La actualidad más candente

Presentacion riesgos del Internet
Presentacion riesgos del InternetPresentacion riesgos del Internet
Presentacion riesgos del InternetEduar Calle
 
Web 1.0, 2.0 y 3.0
Web 1.0, 2.0 y 3.0Web 1.0, 2.0 y 3.0
Web 1.0, 2.0 y 3.0hadalyiza
 
ERP solution for eCommerce Business
ERP solution for eCommerce BusinessERP solution for eCommerce Business
ERP solution for eCommerce BusinessGlobalteckz
 
Criss crossed lovers english to go
Criss crossed lovers  english to goCriss crossed lovers  english to go
Criss crossed lovers english to goBanchong Sotsi
 
PWA - Progressive Web App
PWA - Progressive Web AppPWA - Progressive Web App
PWA - Progressive Web AppRobert Robinson
 
Introduction to silver light
Introduction to silver lightIntroduction to silver light
Introduction to silver lightjayc8586
 
GC-F-004-V08_AP1-AA1-EV01_EV02_Transversal Formulación del proyecto multimedi...
GC-F-004-V08_AP1-AA1-EV01_EV02_Transversal Formulación del proyecto multimedi...GC-F-004-V08_AP1-AA1-EV01_EV02_Transversal Formulación del proyecto multimedi...
GC-F-004-V08_AP1-AA1-EV01_EV02_Transversal Formulación del proyecto multimedi...IvanLasso3
 
Utilidades de google
Utilidades de googleUtilidades de google
Utilidades de googleemiilsediiaz
 
Tipos de Web, Caracteristicas y Diferencias
Tipos de Web, Caracteristicas y DiferenciasTipos de Web, Caracteristicas y Diferencias
Tipos de Web, Caracteristicas y DiferenciasKeniel Moreno
 
Navegadores caracteristicas ventajas_desventajas2
Navegadores caracteristicas ventajas_desventajas2Navegadores caracteristicas ventajas_desventajas2
Navegadores caracteristicas ventajas_desventajas2Adán Andrade
 
Website Development Proposal For Corporate PowerPoint Presentation Slides
Website Development Proposal For Corporate PowerPoint Presentation SlidesWebsite Development Proposal For Corporate PowerPoint Presentation Slides
Website Development Proposal For Corporate PowerPoint Presentation SlidesSlideTeam
 
Deep web investigacion profunda 3 de marzo documento final
Deep web investigacion profunda 3 de marzo documento finalDeep web investigacion profunda 3 de marzo documento final
Deep web investigacion profunda 3 de marzo documento finalRichi Vargas
 

La actualidad más candente (20)

Deep web
Deep webDeep web
Deep web
 
Presentacion riesgos del Internet
Presentacion riesgos del InternetPresentacion riesgos del Internet
Presentacion riesgos del Internet
 
Que son los navegadores
Que son los navegadoresQue son los navegadores
Que son los navegadores
 
The Deep Web
The Deep WebThe Deep Web
The Deep Web
 
Web 1.0, 2.0 y 3.0
Web 1.0, 2.0 y 3.0Web 1.0, 2.0 y 3.0
Web 1.0, 2.0 y 3.0
 
ERP solution for eCommerce Business
ERP solution for eCommerce BusinessERP solution for eCommerce Business
ERP solution for eCommerce Business
 
Criss crossed lovers english to go
Criss crossed lovers  english to goCriss crossed lovers  english to go
Criss crossed lovers english to go
 
PWA - Progressive Web App
PWA - Progressive Web AppPWA - Progressive Web App
PWA - Progressive Web App
 
Introduction to silver light
Introduction to silver lightIntroduction to silver light
Introduction to silver light
 
La web 5.0
La  web 5.0La  web 5.0
La web 5.0
 
Angular PWA
Angular PWAAngular PWA
Angular PWA
 
GC-F-004-V08_AP1-AA1-EV01_EV02_Transversal Formulación del proyecto multimedi...
GC-F-004-V08_AP1-AA1-EV01_EV02_Transversal Formulación del proyecto multimedi...GC-F-004-V08_AP1-AA1-EV01_EV02_Transversal Formulación del proyecto multimedi...
GC-F-004-V08_AP1-AA1-EV01_EV02_Transversal Formulación del proyecto multimedi...
 
Utilidades de google
Utilidades de googleUtilidades de google
Utilidades de google
 
The dark web
The dark webThe dark web
The dark web
 
Microsoft Web Technology Stack
Microsoft Web Technology StackMicrosoft Web Technology Stack
Microsoft Web Technology Stack
 
Deep web Seminar
Deep web Seminar Deep web Seminar
Deep web Seminar
 
Tipos de Web, Caracteristicas y Diferencias
Tipos de Web, Caracteristicas y DiferenciasTipos de Web, Caracteristicas y Diferencias
Tipos de Web, Caracteristicas y Diferencias
 
Navegadores caracteristicas ventajas_desventajas2
Navegadores caracteristicas ventajas_desventajas2Navegadores caracteristicas ventajas_desventajas2
Navegadores caracteristicas ventajas_desventajas2
 
Website Development Proposal For Corporate PowerPoint Presentation Slides
Website Development Proposal For Corporate PowerPoint Presentation SlidesWebsite Development Proposal For Corporate PowerPoint Presentation Slides
Website Development Proposal For Corporate PowerPoint Presentation Slides
 
Deep web investigacion profunda 3 de marzo documento final
Deep web investigacion profunda 3 de marzo documento finalDeep web investigacion profunda 3 de marzo documento final
Deep web investigacion profunda 3 de marzo documento final
 

Similar a La deep web (20)

Apuntes sobre la deep web
Apuntes sobre la deep webApuntes sobre la deep web
Apuntes sobre la deep web
 
DEEP WEB - (Internet profunda)
DEEP WEB - (Internet profunda)DEEP WEB - (Internet profunda)
DEEP WEB - (Internet profunda)
 
Características y funcionamiento de la deep web
Características y funcionamiento de la deep webCaracterísticas y funcionamiento de la deep web
Características y funcionamiento de la deep web
 
LA DEEP WEB
LA DEEP WEBLA DEEP WEB
LA DEEP WEB
 
DEEP WEB
DEEP WEBDEEP WEB
DEEP WEB
 
Informe deep web
Informe deep webInforme deep web
Informe deep web
 
Doc deep-web (2)
Doc deep-web (2)Doc deep-web (2)
Doc deep-web (2)
 
Deep Web- Trabajo Grupal
Deep Web- Trabajo GrupalDeep Web- Trabajo Grupal
Deep Web- Trabajo Grupal
 
Deep web
Deep webDeep web
Deep web
 
Expo gestion2
Expo gestion2Expo gestion2
Expo gestion2
 
Expo gestion2
Expo gestion2Expo gestion2
Expo gestion2
 
Expo gestion2
Expo gestion2Expo gestion2
Expo gestion2
 
Deep web
Deep webDeep web
Deep web
 
Deep web
Deep webDeep web
Deep web
 
Deep web
Deep webDeep web
Deep web
 
Deep web
Deep webDeep web
Deep web
 
Deep web antonela yánez
Deep web   antonela yánezDeep web   antonela yánez
Deep web antonela yánez
 
Deep web
Deep webDeep web
Deep web
 
Deep web
Deep webDeep web
Deep web
 
Deep Web
Deep WebDeep Web
Deep Web
 

Último

COMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfCOMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfOscarBlas6
 
institucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenainstitucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenajuniorcuellargomez
 
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxPRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxRodriguezLucero
 
libro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdflibro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdfFAUSTODANILOCRUZCAST
 
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAINSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAdanielaerazok
 
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxrodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxssuser61dda7
 
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdfNUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdfisrael garcia
 
MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.imejia2411
 
Institucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenaInstitucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenadanielaerazok
 
Buscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webBuscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webDecaunlz
 
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdfFernandaHernandez312615
 
Historia de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellaHistoria de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellajuancamilo3111391
 
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsxactividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx241532171
 

Último (13)

COMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdfCOMPETENCIAS CIUDADANASadadadadadadada .pdf
COMPETENCIAS CIUDADANASadadadadadadada .pdf
 
institucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalenainstitucion educativa la esperanza sede magdalena
institucion educativa la esperanza sede magdalena
 
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptxPRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
PRIMARIA 1. RESUELVE PROBLEMAS DE FORMA MOVIMIENTO Y LOCALIZACIÓN 2 (2).pptx
 
libro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdflibro de Ciencias Sociales_6to grado.pdf
libro de Ciencias Sociales_6to grado.pdf
 
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENAINSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
INSTITUCION EDUCATIVA LA ESPERANZA SEDE MAGDALENA
 
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptxrodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
rodriguez_DelAngel_MariaGPE_M1S3AL6.pptx
 
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdfNUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
NUVO PROGRAMAS DE ESCUELAS NUEVO-ACUERDO-CTE.pdf
 
MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.MODELO CARACTERIZACION DE PROCESOS SENA.
MODELO CARACTERIZACION DE PROCESOS SENA.
 
Institucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalenaInstitucion educativa la esperanza sede la magdalena
Institucion educativa la esperanza sede la magdalena
 
Buscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la webBuscadores, SEM SEO: el desafío de ser visto en la web
Buscadores, SEM SEO: el desafío de ser visto en la web
 
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf2º SOY LECTOR PART 2- MD  EDUCATIVO (6).pdf
2º SOY LECTOR PART 2- MD EDUCATIVO (6).pdf
 
Historia de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ellaHistoria de la Medicina y bases para desarrollo de ella
Historia de la Medicina y bases para desarrollo de ella
 
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsxactividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
actividad.06_crea_un_recurso_multimedia_M01_S03_M01.ppsx
 

La deep web

  • 1. “Año de la lucha contra la corrupción y la impunidad” INSTITUTO DE EDUCACIÓN SUPERIOR TECNOLÓGICO PRIVADO “Santiago Antúnez de Mayolo” PROGRAMA DE ESTUDIOS “ DISEÑO Y PROGRAMACIÓN WEB” MONOGRAFÍA ASIGNATURA : Comunicación Efectiva DOCENTE : LÁZARO SOLIS Wilmer INTEGRANTES : ALANYA JAVIER Josue David BALBIN ROJAS Yosselin Arelis MAYHUA VALER Ruth RAMIREZ SAMANIEGO Emer Brando ROJAS PRUDENCIO Yessica Palian-Huancayo 2019 ““LA DEEP WEB”
  • 2. Dedicada a nuestros padres que siempre han estado presente todo este tiempo apoyándonos de una u otra manera, además de que queremos prevenir futuros desastres para los jóvenes. A nuestros amigos quienes nos han apoyado con su conocimiento acerca del tema y dándonos información de sus propias experiencias. Y a todos aquellos que nos alentaron para terminarlo. Los autores.
  • 3. INDICE PORTADA DEDICATORIA INDICE INTRODUCCIÓN CAPITULO I: DEEP WEB 1.1. DEFINICIÓN……………………………………………………………………………………………………….5 1.2. ORIGEN …………………………………………………………………………………………………………… 6 CAPITULO II: TAMAÑO DE LA DEEP WEB 2.1. TAMAÑO ………………………………………………………………………………………………………… 7 CAPITULO III: DENOMINACIÓN DE LA WEB 3.1. DENOMINACIÓN……………………………………………………………………………………………….8 CAPITULO IV: EL INTERNET ACADEMIA INVISIBLE 4.1. ACADEMIA INVISIBLE……….…………………………………………………………………………………9 4.1.1 Tamaño de la Internet académica invisible…………………………………………………………..10 CAPITULO V: METODOS DE PROFUNDIZACIÓN DE LA DEEP WEB 5.1. METODOS DE PROFUNDIZACION…………………………………..……………………………………11 CAPITULO VI: NIVELES DE LA DEEP WEB 6.0. NIVEL 0………………………………………………………………………………………………………………14 6.1. NIVEL 1…………………………………………………………………………………………………………… ..14 6.2. NIVEL 2………………………………………………………………………………………………………………14 6.3. NIVEL 3………………………………………………………………………………………………………………14 6.4. NIVEL 4………………………………………………………………………………………………………………15 6.5. NIVEL 5………………………………………………………………………………………………………………15 6.6. NIVEL 6………………………………………………………………………………………………………………16 6.7. NIVEL 7………………………………………………………………………………………………………………16 6.8. NIVEL 8………………………………………………………………………………………………………………16 CAPITULO VII: VENTAJAS Y DESVENTAJAS DE LA DEEP WEB 7.1. VENTAJAS……………………………………………………………………………………………………………17 7.2. DESVENTAJAS……………………………………………………………………………………………………..18 CONCLUSIONES REFERENCIAS BIBLIOGRAFICAS ANEXOS
  • 4. INTRODUCCION La Deep Web es todo aquello que la Internet convencional quiere esconder del mundo, es decir, en la “superficie” de Internet, no muestran lo cruel de la realidad, así como lo que no debe ser conocido, muchos motores de búsqueda lo ocultan así como Google. Y como es de suponer, parte del contenido que podemos encontrar en la web profunda será confidencial, bien porque se trate de información que esté rozando el límite de la legalidad con contenido dinámico o porque es directamente ilegal, como páginas dedicadas a la pornografía infantil, contrabando, información clasificada, terrorismo, etc. Por ello en este trabajo se darán a conocer toda la información que se ha recolectado según nuestros limites. En el primer capítulo hablaremos de su concepto y origen, el segundo capítulo del tamaño de la deep web, en el tercero se desarrollara su denominación, en el cuarto capítulo el internet academia invisible, en el quinto capitulo métodos de profundización, en el sexto capitulo están sus niveles. Y por último el séptimo capitulo las ventajas y desventajas. Es importante enterarnos de este tema por que nos precavemos de lo que el internet oculta y podemos navegar sin problemas por el internet. Esta presente investigación pretende contribuir con el bienestar de la sociedad, sobre todo con los jóvenes de hoy en día, ya que con tanta información podrian ser un peligro para todos y para el mismo. Los autores.
  • 5. CAPITULO I DEEP WEP 1.1. DEFINICIÒN Internet profunda (del inglés, deep web), internet invisible o internet convencionales, que engloba a todo el contenido de Internet que no puede ser indexado por los motores de búsqueda comunes como Google, Yahoo, Bing, etc. Esta definición nos genera la de Surface web o Web superficial, entendida como aquel contenido que conocemos, es decir, la Surface web está constituida por todas aquellas páginas a las que miles de usuarios pueden acceder a diario, pues no se encuentran ocultas para los buscadores, y siempre pueden ser localizadas de una u otra forma. El término se atribuye al informático Mike Bergman. Es el opuesto al Internet superficial. A la Internet profunda también se le conoce como Internet invisible, Deepnet, Darkweb, Dark Web, Undernet y hidden Web. El término de Deep Web es utilizado frecuentemente para referirse a páginas de Internet que están funcionando bajo software que protege su identidad y geolocalización, como Tor, sin embargo la diferencia es que éstas ocultan su identidad de forma intencional, frecuentemente para ocultar actividad y oferta de contenido ilegal—como pornografía infantil, oferta de sustancias, oferta de servicios ilegales, etc.—, de ahí que Deep Web y Dark Web sean términos que se usan coloquialmente para referirse a las páginas con dicha oferta.
  • 6. 1.2.ORIGEN La Deep Web (Red profunda), antes (1994) denominada Invisible Web, ha sido bautizada de esta manera en 2001 debido a que no es accesible directamente a través del uso del principal medio de navegación superficial en estos tiempos: los motores de búsquedas tradicionales o estándar. El internet se ve divido en dos ramas, La Internet profunda y la superficial. El Internet superficial se compone de páginas estáticas o fijas, mientras que Web profunda está compuesta de páginas dinámicas. Las páginas estáticas no dependen de una base de datos para desplegar su contenido si no que residen en un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo contenido nunca cambia. Todos los cambios se realizan directamente en el código y la nueva versión de la página se carga en el servidor. Estas páginas son menos flexibles que las páginas dinámicas. Las páginas dinámicas se crean como resultado de una búsqueda de base de datos. El contenido se coloca en una base de datos y se proporciona sólo cuando lo solicite el usuario. La principal causa de la existencia de la internet profunda es la imposibilidad de los motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran parte de la información existente en Internet. Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la «internet profunda» se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la internet profunda esto no significaría que esta dejara de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y sólo determinados usuarios, aquellos con contraseñas o códigos especiales, pueden hacerlo.En la Deep Web pueden establecerse contactos que no son monitoreados, nadie está allí observando. Además las transferencias tanto de mercancía como de pagos son prácticamente imposible de rastrear. La internet profunda no es una región prohibida o mística de internet, y la tecnología relacionada con ella por lo general no es conspirativa, peligrosa o ilegal. En ella se alberga todo tipo de recurso al que se es difícil de acceder mediante métodos comunes como los motores de búsqueda populares.Una parte de la internet profunda consiste en redes internas de instituciones científicas y académicas que forman la denominada Academic Invisible Web: («Internet académica invisible») la cual se refiere a las bases de datos que contienen avances tecnológicos, publicaciones científicas, y material académico en general a los cuales no se pueden acceder fácilmente.
  • 7. CAPITULO II TAMAÑO DE LA DEEP WEB 2.1. TAMAÑO La internet superficial se compone de páginas indexadas en servidores DNS con una alfabetización y codificación de página perfectamente entendible por los motores de búsqueda, mientras que la internet profunda está compuesta de páginas cuyos dominios están registrados con extensiones .onion y los nombres de los dominios están codificados en una trama HASH. Sirven de forma ad hoc, y no necesitan registrarse, basta con que tu ordenador tenga funcionando un servicio onion, que hará las veces de un servicio dns, pero especial para las páginas del internet profundo. Mediante una red P2P, se replican las bases de datos que contienen la resolución de nombres HASH. Mientras que las páginas normales son identificadas mediante el protocolo UDP/IP, las páginas .onion son repetidas por el ramal al que se ha conectado el navegador especializado para tal sistema de navegación segura. El sistema de búsqueda es el mismo que usa BitTorrent. El contenido se coloca en una base de datos y se proporciona sólo cuando lo solicite el usuario. En 2010 se estimó que la información que se encuentra en la internet profunda es de 7500 terabytes, lo que equivale a aproximadamente 550 billones de documentos individuales. El contenido de la internet profunda es de 400 a 550 veces mayor de lo que se puede encontrar en la internet superficial. En comparación, se estima que la internet superficial contiene solo 19 terabytes de contenido y un billón de documentos individuales. También en 2010 se estimó que existían más de 200 000 sitios en la internet profunda. Estimaciones basadas en la extrapolación de un estudio de la Universidad de California en Berkeley especula que actualmente la internet profunda debe tener unos 91 000 terabytes. La Association for Computing Machinery (ACM) publicó en 2007 que Google y Yahoo indexaban el 32 % de los objetos de la internet profunda, y MSN tenía la cobertura más pequeña con el 11 %. Sin embargo, la cobertura de los tres motores era de 37 %, lo que indicaba que estaban indexando casi los mismos objetos.
  • 8. CAPITULO III DENOMINACIÓN DE LA DEP WEB 3 .1. DENOMINACIÓN Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of Electronic Publishing, mencionó que Jill Ellsworth utilizó el término «Web invisible» en 1994 para referirse a los sitios web que no están registrados por ningún motor de búsqueda. En su artículo, Bergman citó la entrevista que Frank García hizo a Ellsworth en 1996:14 “Sería un sitio que, posiblemente, esté diseñado razonablemente, pero no se molestaron en registrarlo en alguno de los motores de búsqueda. ¡Por lo tanto, nadie puede encontrarlos! Estás oculto. Yo llamo a esto la Web invisible.” Otro uso temprano del término Web Invisible o web profunda fue por Bruce Monte y Mateo B. Koll de Personal Library Software, en una descripción de la herramienta @ 1 de web profunda, en un comunicado de prensa de diciembre de 1996.15 La importancia potencial de las bases de datos de búsqueda se reflejó en el sitio de búsqueda, el motor AT1 que se anunció a bombo y platillo a principios de 1997. Sin embargo, PLS, propietario de AT1, fue adquirida por AOL en 1998, y poco después el servicio AT1 fue abandonado. El primer uso del término específico de web profunda, ahora generalmente aceptada, ocurrió en el estudio de Bergman de 2001 mencionado anteriormente. Por otra parte, el término web invisible se dice que es inexacto porque: Muchos usuarios asumen que la única forma de acceder a la web es consultando un buscador. Alguna información puede ser encontrada más fácilmente que otra, pero esto no quiere decir que esté invisible. La web contiene información de diversos tipos que es almacenada y recuperada en diferentes formas. El contenido indexado por los buscadores de la web es almacenado también en bases de datos y disponible solamente a través de las peticiones o consultas del usuario, por tanto no es correcto decir que la información almacenada en bases de datos es invisible
  • 9. CAPITULO IV EL INTERNET ACADEMIA INVISIBLE 4 .1. LA ACADEMIA INVISIBLE Se denomina Internet Académica Invisible o Academic Invisible Web (AIW) a el conjunto de bases de datos y colecciones relevantes para la academia, o con fines académicos, que no es posible ser buscado por los motores de búsqueda convencionales. La preocupación sobre este tema radica en que millones de documentos permanecen invisibles frente a los ojos de los usuarios convencionales. Dentro de estos documentos se pueden encontrar artículos, libros, reportes, documentos de acceso abierto, datos de encuestas, entre otros. El problema con los motores de búsqueda convencionales es que no muestran aquellos datos que cambian constantemente, como información climática o imágenes satelitales y dicha información, al cambiar de manera tan rápida es imposible de ser indexada por lo que restringe su aparición en los motores de búsqueda convencionales. Una aproximación al indexamiento y apertura de la Internet académica invisible son los motores de búsqueda que se centran en información académica, como Google Scholar o Scirus. El problema de estos motores de búsqueda mencionados anteriormente es que fueron creados por compañías comerciales. El portal de ciencia Vascoda ha demostrado ser la alternativa más efectiva para eliminar el espacio entre la Internet académica visible e invisible ya que integra bases de datos de literatura, colecciones de librerías y demás contenido académico mediante un indexamiento basado en el uso de las etiquetas de cada uno de los dominios que albergan dicha información.6 Cabe resaltar que no toda la ausencia de esta información en la Internet Visible se debe a los motores de búsqueda, otro de estos factores se debe a que algunos de estos documentos son propiedad de editoriales de base de datos.
  • 10. 4.1.1 TAMAÑO DE LA INTERNET ACADEMIA INVISIBLE El intento más acertado por realizar una medición de la cantidad de documentos académicos presentes en la web invisible fue realizado por Bergman en 2001 en su estudio The Deep Web: Surfacing Hideen Value. En dicha investigación Bergman realizó un listado de los 60 sitios académicos más largos de la Deep Web entre los que se encontraba el National Climatic Data Center (NOAA), NASA EOSDIS, National Oceanographic (combined with Geophysical) Data Center (NOAA), entre otras. National Climatic Data Center (NOAA) Público http://www.ncdc.noaa.gov/ol/satellite/satelliteresources.html366,000 NASA EOSDIS Público http://harp.gsfc.nasa.gov/~imswww/pub/imswelcome/plain.html 219,600 National Oceanographic (combined with Geophysical) Data Center (NOAA) Público/Pagohttp://www.nodc.noaa.gov/, http://www.ngdc.noaa.gov/ 32,940 DBT Online Pago http://www.dbtonline.com/ 30,500 Alexa Público (parcial) http://www.alexa.com/ 15,860 Right-to-Know Network (RTK Net) Público http://www.rtk.net/ 14,640 Lexis-Nexis Pago http://www.lexis-nexis.com/lncc/ 12,200 DialogPago http://www.dialog.com/ 10,980 Genealogy - ancestry.comPago http://www.ancestry.com/ 6,500 MP3.com Público http://www.mp3.com/ 4,300 Terraserver Público/Pagohttp://terraserver.microsoft.com/ 4,270 ProQuest Direct (incl. Digital Vault) Pago http://www.umi.com 3,172 Dun & Bradstreet Pago http://www.dnb.com3,113 Westlaw Pago http://www.westlaw.com/ 2,684 Dow Jones News Retrieval Pago http://dowjones.wsj.com/p/main.html 2,684
  • 11. CAPITULO V METODOS DE PROFUNDIZACIÓN DE LA DEEP WEB 5 .1. METODOS DE PROFUNDIZACION Las arañas (web crawlers) Cuando se ingresa a un buscador y se realiza una consulta, el buscador no recorre la totalidad de internet en busca de las posibles respuestas, sino que busca en su propia base de datos, que ha sido generada e indexada previamente. Se utiliza el término «araña web» (en inglés web crawler) o robots (por software, comúnmente llamados "bots") inteligentes que van haciendo búsquedas por enlaces de hipertexto de página en página, registrando la información ahí disponible. Cuando una persona realiza una consulta, el buscador no recorre la totalidad de internet en busca de las posibles respuestas, lo cual supondría una capacidad de reacción bastante lenta. Lo que hace es buscar en su propia base de datos, que ha sido generada e indizada previamente. En sus labores de búsqueda, indización y catalogación, utilizan las llamadas arañas (o robots inteligentes) que van saltando de una página web a otra siguiendo los enlaces de hipertexto y registran la información allí disponible. [...] datos que se generan en tiempo real, como pueden ser valores de Bolsa, información del tiempo, horarios de trenes. El contenido que existe dentro de la internet profunda es en muy raras ocasiones mostrado como resultado en los motores de búsqueda, ya que las «arañas» no rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a páginas protegidas con contraseñas, algunos desarrolladores que no desean que sus páginas sean encontradas insertan etiquetas especiales en el código para evitar que sea indexada. Las «arañas» son incapaces de mostrar páginas que no estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un signo de interrogación. Pero ahora sitios web no creados con HTML o con signos de interrogación están siendo indexados por algunos motores de búsqueda. Sin embargo, se calcula que incluso con estos buscadores más avanzados solo se logra alcanzar el 16 % de la información disponible en la internet profunda. Existen diferentes técnicas de búsqueda para extraer contenido de la internet profunda como librerías de bases de datos o simplemente conocer el URL al que quieres acceder y escribirlo manualmente.
  • 12. Tor The Onion Router (abreviado como TOR) es un proyecto diseñado e implementado por la marina de los Estados Unidos lanzado el 20 de septiembre de 2002. Posteriormente fue patrocinado por la EFF (Electronic Frontier Foundation, una organización en defensa de los derechos digitales). Al presente (2019), subsiste como TOR Project, una organización sin ánimo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de acceso y expresión en internet manteniendo su privacidad y anonimato. A diferencia de los navegadores de internet convencionales, Tor le permite a los usuarios navegar por la Web de forma anónima. Tor es descargado de 30 millones a 50 millones de veces al año, hay 0,8 millones de usuarios diarios de Tor y un incremento del 20 % solamente en 2013. Tor puede acceder a unos 6 500 sitios web ocultos. Cuando se ejecuta el software de Tor, para acceder a la internet profunda, los datos de la computadora se cifran en capas. El software envía los datos a través de una red de enlaces a otros equipos ―llamados en inglés «relays» (‘nodos’)― y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta trayectoria cambia con frecuencia. Tor cuenta con más de 4 000 retransmisiones y todos los datos cifrados pasan a través de ―por lo menos― tres de estos relays. Una vez que la última capa de cifrado es retirado por un nodo de salida, se conecta a la página web que desea visitar. El contenido que puede ser encontrado dentro de la internet profunda es muy vasto, se encuentran por ejemplo, datos que se generan en tiempo real, como pueden ser valores de Bolsa, información del tiempo, horarios de trenes, bases de datos sobre agencias de inteligencia, disidentes políticos y contenidos criminales.
  • 13. Criptomoneda Logo de Bitcoin, una criptomoneda Es posible encontrar sitios web que realicen transacciones ilegales (como drogas, armas, o incluso sicarios) en servidores exclusivos para usuarios de Tor. Es una práctica común utilizar monedas digitales como el Bitcoin21 que se intercambia a través de billeteras digitales entre el usuario y el vendedor, lo que hace que sea prácticamente imposible de rastrear. Vale la pena acotar que salvo por excepciones de algunos mercados como Silk Roads, The Trade Route, o Wall Street Market, la mayor parte del comercio en la deep web se constituye a base de ofertas engañosas y fraudes en general, existe una gran tendencia a satanizar a comunidades que buscan la libertad de expresión y el anonimato, en el mundo hispano-hablante esta tendencia fue originada por blogueros y youtubers que lejos de informar a las comunidades buscan crear escándalos amarillistas para obtener ingresos por conceptos de publicidad de sistemas como Adsense. En los últimos años se ha demostrado que el Bitcoin no es una criptomoneda segura cuando se trata de la confidencialidad de los datos de sus usuarios, motivo por el cual tendría poco sentido utilizarla en redes de anonimato como Tor, Freenet, o I2P, cuyos usuarios intentan alcanzar el clímax del anonimato, por lo cual no se puede descartar tampoco la intervención de empresas propagandistas que intentan aumentar el valor de mercado del bitcoin.
  • 14. CAPITULO VI NIVELES DE LA DEEP WEB 6 .1. NIVELES Nivel 0 El nivel 0 es la denominada Web común (Common web), la parte de Internet indexada en los motores de búsqueda, con la información que encontramos cuando entramos a la World Wide Web. También es conocida habitualmente por otros términos como "clearnet", en contraposición a la Dark Web, o Internet superficial o Web de superficie, frente a la Deep Web o Internet profunda. Nivel 1 El nivel 1 de la Deep Web formaría en realidad aún parte del Internet de superficie, conteniendo sitios todavía accesibles desde motores de búsqueda, pero también sitios no indexados, como algunas redes sociales y comunidades, bases de datos MySQL, alojamientos web, o servicios basados en redes de Intranet. Nivel 2 Conocido como "Bergie Web", el nivel 2 de la Deep Web sería todavía accesible para la mayoría de usuarios, incluyendo aún contenido que se podría considerar como "clandestino", pero que podría estar indexado, como la conocida comunidad de 4Chan. En este nivel también estarían contenidos y resultados bloqueados por Google, servidores FTP, sistemas informáticos trampa conocidos como "Honeypots", porno ilegal, principalmente "Jailbait", o todo tipo de vídeos. Sería también uno de los niveles de Internet más grande de todos, conteniendo buena parte de la información de la Red. Nivel 3 El nivel 3 sería ya propiamente la Deep Web, y únicamente se puede acceder a través de Proxy, o a través de redes anónimas como Tor para la información más
  • 15. sensible. Este nivel estaría compuesto por todo tipo de pornografía, imágenes y vídeos gore, escándalos de famosos (aunque éstos ya han circulado por el Internet común en alguna ocasión), y especialmente mucha información sobre hacking, como scripts de gusanos XSS, seguridad informática, vulnerabilidades de Internet para hackers, análisis de datos, o información sobre todo tipo de virus informáticos. Nivel 4 El cuarto nivel de la Deep Web se conoce como "Charter Web", y estaría dividido en dos partes. La primera parte sería accesible desde Tor, y se podría encontrar todo tipo de material cuestionable, incluyendo vídeos, películas y libros prohibidos. También es el lugar para el mercado negro, desde juegos ilegales, al comercio de drogas duras, comercio de especies de animales raros, o incluso el tráfico de personas o para contratar asesinatos. Usando Tor para acceder a la Deep WebLa segunda parte del nivel 4 solo sería accesible mediante un sistema de shell cerrado (Closed Shell System), y su supuesto contenido es el paraíso para los aficionados a las conspiraciones, la ufología, la criptozoología, o todo tipo de pseudociencias. Además de una buena lista de cosas ilegales y realmente enfermizas, quien sea capaz de llegar hasta el nivel 4 de la Deep Web tendrá acceso supuestamente a información oculta de todo tipo. Desde información sobre Hardware experimental, inteligencia artificial, o supercomputación, a planes de experimentos de Tesla, experimentos no conocidos de la Segunda Guerra Mundial, información sobre "La Ley de los 13" (las supuestas 13 familias que dominan el mundo), o la ubicación de la Atlántida. Nivel 5 A partir del nivel 5 se supone que se encuentra el 80% de la información total de Internet. Es conocido como "Marianas Web", en referencia a la profunda fosa de las marianas del Océano Pacífico, y nunca se ha llegado a filtrar información sobre lo que supuestamente contiene.
  • 16. El nivel de las Marianas Web de la Internet profunda es donde empieza a mezclarse realmente la realidad y la leyenda urbana. Si bien las anteriores capas de la Deep Web existen de verdad (lo discutible sería su estructura y el contenido que supuestamente tienen), el nivel 5 es mera especulación. Mito o realidad, se pueden encontrar usuarios que venden supuestos accesos a las Marianas Web, y según se especula, de existir, probablemente contenga documentación secreta de los gobiernos. Supuesto acceso a las Marianas Web Nivel 6 El sexto nivel de la Deep Web se supone que hace exclusivamente de intermediario entre las Marianas Web y el siguiente nivel. Para pasar al nivel 7 sería necesario computación cuántica. Nivel 7 El nivel 7 de la Deep web se conoce como "The Fog" (la niebla) o "Virus Soup" (sopa de virus), y es definido habitualmente como una zona de guerra. Todos los usuarios que llegan hasta aquí tratan a su vez de llegar hasta el nivel 8, el último nivel de la Deep Web, mientras evitan que otras personas lo consigan, por los medios que sean necesarios. Este séptimo nivel de la Internet profunda estaría lleno de código malicioso para tratar que otros usuarios lleguen hasta aquí e investiguen. Básicamente todos luchan para mantener a los demás fuera debido al valor de la información y sistemas del siguiente nivel. Nivel 8 La última capa de la Deep Web, el nivel 8, se conoce como "The Primarch System", y es imposible de acceder directamente a este nivel. Se supone que este sistema Primarch es el que controla Internet, estando incluso fuera de control de cualquier gobierno u organización.
  • 17. CAPITULO VII VENTAJAS Y DESVENTAJAS DE LA DEEP WEB 7.1. VENTAJAS A pesar de su mala reputación existen movimientos dentro de la web profunda que buscan recatar su labor social. 1.- Libertad de expresión. Aunque muchos la dan por garantizada, no es así para todas las personas. Por ejemplo, en China el contenido de la web esta limitado y censurado, así como la prensa bajo pena de cárcel. Las atrocidades cometidas por el gobierno chino son publicadas por la deep web. Es a través de esta que nos enteramos de la realidad de otros países. 2.- Libros censurados. Podrás encontrar libros censurados por los gobiernos y también libros regulares. Este punto también va ligado a la piratería pues aquí no existe el copyright. Por ende, podrás encontrar prácticamente cualquier libro que desees. Pero cuidado, no es buena idea descargar prácticamente nada de la deep web por el problema de los hackers. No querrás ni de casualidad que uno de ellos logre conocer tu cuenta bancaria. 3.- Investigaciones encubiertas En mayo de 1996, tres científicos del Laboratorio de Investigación Naval proponían un mecanismo para que los usuarios pudieran acceder a Internet sin ser identificados. Así fue creado la web profunda, en principio para realizar investigaciones. Ahora podrás encontrar investigaciones científicas que no hallaras en otros sitios o al menos no de forma actualizada. 4.- Activismo. No sólo existen hackers «malos» y la prueba más famosa de ellos son Wikileaks o Anonymous. Entre los descubrimientos están los abusos en Guantánamo, la participación de Estados Unidos en los conflictos de medio oriente, espionaje entre países, el complot de los alimentos trasgénicos y la lista sigue. Estos activistas muchas veces basan sus investigaciones en contenidos de la Deep Web.
  • 18. 7.2 DESVENTAJAS Empecemos a analizar la web profunda por su mala reputación. No hay barreras aquí, no hay regulaciones, todo es anónimo (o al menos en teoría). La libertad de expresión es fácilmente tergiversada pero recordemos que ningún invento es malo en sí mismo, todo depende de su uso. 1.- La web de los criminales. Aquí podrás encontrar todo tipo de productos: drogas, armas y hasta órganos. Por lo mismo que es anónima podrás contratar asesinos y hackers. 2.- Los hackers a la orden del día. Hackers inundan la web profunda y son un peligro constante para cualquiera que desee entrar en este mundo. Antes dijimos que el anonimato era en teoría y eso es debido a que siempre está el riesgo de que un hacker profesional pueda encontrarte y hacerse con tu información. 3.- Contenido perturbador e indeseable. Existen muchas imágenes filtradas de la deep web en Internet que tú mismo o tú misma puedes buscar. Numerosos crímenes son perpetuados en todo el mundo, de estos muchos so recogidos por la deep web. Este es el verdadero motivo por el cual no muchos se atreven a echar un vistazo; no será muy difícil encontrarte imagenes de crímenes como mutilaciones, asesinatos o violaciones.
  • 19. CONCLUSIONES 1. En conclusión podemos afirmar que la mitad de los encuestados conoce acerca de la deep web, pero no tienen conocimiento acerca de el contenido que hay dentro de esta web como las paginas Canabies UK, Thor library y Ceboyachan .Los encuestados no han entrado en esta pagina, sin embargo saben que si llegan a entrar a esta web su desarrollo académico y diciplinar se vera afectado de manera negativa debido a que el contenido que tiene no es adecuado.Algunos estudiantes no analizaban las preguntas debido a que a la hora de responderlas eran incoherentes e imprecisos, afirmaban no conocer la pagina y cuando se les preguntaba algo mas a fondo tenían alguna base por lo tanto otra de nuestras conclusiones es que los estudiantes con solo ver el nombre del tema como se les hacia confuso negaban conocerlo. 2. En conclusion podemos afirmar que La deep weeb es una página del mal tiene pedo filia, venta de estupefacientes,trata de personas etc. pero el punto principal es en que nos afecta, esta página nos acepta directa e indirectamente uno o se da de lo que tiene la deep web, esto puede llegara a ser una presa fácil para los hackers, ellos te sacan la información, sabes donde vives, tu familia, tus conocidos. 3. A pesar de la gran cantidad de información que contiene Deep Web, sigue siendo una parte ambigua del mundo digital. Muchos usuarios de Internet no han oído hablar de eso y creen que lo que ven en sus resultados de búsqueda de Google es todo lo que la Web tiene para ofrecer. Otros preferirían que se aboliera, afirmando que se trata de un mundo clandestino de delincuencia y comportamiento poco ético. Luego están aquellos que están interesados en las posibilidades de esta frontera inexplorada, pero simplemente no saben por dónde empezar. Nunca podría esperar cubrir completamente todos los aspectos de Deep Web en las páginas de este WordPress. Si uno realmente quiere entender esta riqueza de conocimiento en expansión, sería mejor que lo exploraran por sí mismos. La Web profunda no va a desaparecer pronto. Vale la pena dedicar nuestro tiempo a investigar más a fondo su contenido y aprender a aprovechar su poder.
  • 20. REFERENCIAS BIBLIOGRAFICAS - https://static-b.walac.pe/wp-content/uploads/2017/02/iceberg.png - " LO MÁS OSCURO DEL INTERNET LA DEEP WEB " Monografía del curso Métodos y Técnicas de Estudio ESPEJO VILCAPOMA Claudia Claudia Valentina Espejo Vilcapoma C. Espejo Vilcapoma - CREEPY HISTORIAS ORIGINAL -INTERNET PROFUNDA,WIKIPEDIA - MODELO DE MONOGRAFIA, WILMER LAZO SOLIS - NIVELES DE LA DEEP WEB, https://documentalium.blogspot.com/2018/09/los-niveles-de-la-deep- web.html