1. “Año de la lucha contra la corrupción y la impunidad”
INSTITUTO DE EDUCACIÓN SUPERIOR TECNOLÓGICO PRIVADO
“Santiago Antúnez de Mayolo”
PROGRAMA DE ESTUDIOS
“ DISEÑO Y PROGRAMACIÓN WEB”
MONOGRAFÍA
ASIGNATURA : Comunicación Efectiva
DOCENTE : LÁZARO SOLIS Wilmer
INTEGRANTES : ALANYA JAVIER Josue David
BALBIN ROJAS Yosselin Arelis
MAYHUA VALER Ruth
RAMIREZ SAMANIEGO Emer Brando
ROJAS PRUDENCIO Yessica
Palian-Huancayo
2019
““LA DEEP WEB”
2. Dedicada a nuestros padres que siempre
han estado presente todo este tiempo apoyándonos
de una u otra manera, además de que queremos
prevenir futuros desastres para los jóvenes.
A nuestros amigos quienes nos han apoyado
con su conocimiento acerca del tema y dándonos
información de sus propias experiencias.
Y a todos aquellos que nos alentaron para terminarlo.
Los autores.
3. INDICE
PORTADA
DEDICATORIA
INDICE
INTRODUCCIÓN
CAPITULO I: DEEP WEB
1.1. DEFINICIÓN……………………………………………………………………………………………………….5
1.2. ORIGEN …………………………………………………………………………………………………………… 6
CAPITULO II: TAMAÑO DE LA DEEP WEB
2.1. TAMAÑO ………………………………………………………………………………………………………… 7
CAPITULO III: DENOMINACIÓN DE LA WEB
3.1. DENOMINACIÓN……………………………………………………………………………………………….8
CAPITULO IV: EL INTERNET ACADEMIA INVISIBLE
4.1. ACADEMIA INVISIBLE……….…………………………………………………………………………………9
4.1.1 Tamaño de la Internet académica invisible…………………………………………………………..10
CAPITULO V: METODOS DE PROFUNDIZACIÓN DE LA DEEP WEB
5.1. METODOS DE PROFUNDIZACION…………………………………..……………………………………11
CAPITULO VI: NIVELES DE LA DEEP WEB
6.0. NIVEL 0………………………………………………………………………………………………………………14
6.1. NIVEL 1…………………………………………………………………………………………………………… ..14
6.2. NIVEL 2………………………………………………………………………………………………………………14
6.3. NIVEL 3………………………………………………………………………………………………………………14
6.4. NIVEL 4………………………………………………………………………………………………………………15
6.5. NIVEL 5………………………………………………………………………………………………………………15
6.6. NIVEL 6………………………………………………………………………………………………………………16
6.7. NIVEL 7………………………………………………………………………………………………………………16
6.8. NIVEL 8………………………………………………………………………………………………………………16
CAPITULO VII: VENTAJAS Y DESVENTAJAS DE LA DEEP WEB
7.1. VENTAJAS……………………………………………………………………………………………………………17
7.2. DESVENTAJAS……………………………………………………………………………………………………..18
CONCLUSIONES
REFERENCIAS BIBLIOGRAFICAS
ANEXOS
4. INTRODUCCION
La Deep Web es todo aquello que la Internet convencional quiere esconder del
mundo, es decir, en la “superficie” de Internet, no muestran lo cruel de la realidad,
así como lo que no debe ser conocido, muchos motores de búsqueda lo ocultan así
como Google.
Y como es de suponer, parte del contenido que podemos encontrar en la web
profunda será confidencial, bien porque se trate de información que esté rozando
el límite de la legalidad con contenido dinámico o porque es directamente ilegal,
como páginas dedicadas a la pornografía infantil, contrabando, información
clasificada, terrorismo, etc.
Por ello en este trabajo se darán a conocer toda la información que se ha
recolectado según nuestros limites. En el primer capítulo hablaremos de su
concepto y origen, el segundo capítulo del tamaño de la deep web, en el tercero se
desarrollara su denominación, en el cuarto capítulo el internet academia invisible,
en el quinto capitulo métodos de profundización, en el sexto capitulo están sus
niveles. Y por último el séptimo capitulo las ventajas y desventajas.
Es importante enterarnos de este tema por que nos precavemos de lo que el
internet oculta y podemos navegar sin problemas por el internet.
Esta presente investigación pretende contribuir con el bienestar de la sociedad,
sobre todo con los jóvenes de hoy en día, ya que con tanta información podrian ser
un peligro para todos y para el mismo.
Los autores.
5. CAPITULO I
DEEP WEP
1.1. DEFINICIÒN
Internet profunda (del inglés, deep web), internet invisible o internet
convencionales, que engloba a todo el contenido de Internet que no puede ser
indexado por los motores de búsqueda comunes como Google, Yahoo, Bing, etc.
Esta definición nos genera la de Surface web o Web superficial, entendida como
aquel contenido que conocemos, es decir, la Surface web está constituida por
todas aquellas páginas a las que miles de usuarios pueden acceder a diario, pues
no se encuentran ocultas para los buscadores, y siempre pueden ser localizadas
de una u otra forma. El término se atribuye al informático Mike Bergman. Es el
opuesto al Internet superficial.
A la Internet profunda también se le conoce como Internet invisible, Deepnet,
Darkweb, Dark Web, Undernet y hidden Web.
El término de Deep Web es utilizado frecuentemente para referirse a páginas de
Internet que están funcionando bajo software que protege su identidad y
geolocalización, como Tor, sin embargo la diferencia es que éstas ocultan su
identidad de forma intencional, frecuentemente para ocultar actividad y oferta de
contenido ilegal—como pornografía infantil, oferta de sustancias, oferta de
servicios ilegales, etc.—, de ahí que Deep Web y Dark Web sean términos que se
usan coloquialmente para referirse a las páginas con dicha oferta.
6. 1.2.ORIGEN
La Deep Web (Red profunda), antes (1994) denominada Invisible Web, ha sido
bautizada de esta manera en 2001 debido a que no es accesible directamente a
través del uso del principal medio de navegación superficial en estos tiempos: los
motores de búsquedas tradicionales o estándar.
El internet se ve divido en dos ramas, La Internet profunda y la superficial. El
Internet superficial se compone de páginas estáticas o fijas, mientras que Web
profunda está compuesta de páginas dinámicas. Las páginas estáticas no
dependen de una base de datos para desplegar su contenido si no que residen en
un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo
contenido nunca cambia. Todos los cambios se realizan directamente en el código
y la nueva versión de la página se carga en el servidor. Estas páginas son menos
flexibles que las páginas dinámicas. Las páginas dinámicas se crean como
resultado de una búsqueda de base de datos. El contenido se coloca en una base
de datos y se proporciona sólo cuando lo solicite el usuario.
La principal causa de la existencia de la internet profunda es la imposibilidad de los
motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran parte
de la información existente en Internet. Si los buscadores tuvieran la capacidad para
acceder a toda la información entonces la magnitud de la «internet profunda» se
reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda
pudieran indexar la información de la internet profunda esto no significaría que esta
dejara de existir, ya que siempre existirán las páginas privadas. Los motores de
búsqueda no pueden acceder a la información de estas páginas y sólo
determinados usuarios, aquellos con contraseñas o códigos especiales, pueden
hacerlo.En la Deep Web pueden establecerse contactos que no son monitoreados,
nadie está allí observando. Además las transferencias tanto de mercancía como de
pagos son prácticamente imposible de rastrear. La internet profunda no es una
región prohibida o mística de internet, y la tecnología relacionada con ella por lo
general no es conspirativa, peligrosa o ilegal. En ella se alberga todo tipo de recurso
al que se es difícil de acceder mediante métodos comunes como los motores de
búsqueda populares.Una parte de la internet profunda consiste en redes internas
de instituciones científicas y académicas que forman la denominada Academic
Invisible Web: («Internet académica invisible») la cual se refiere a las bases de
datos que contienen avances tecnológicos, publicaciones científicas, y material
académico en general a los cuales no se pueden acceder fácilmente.
7. CAPITULO II
TAMAÑO DE LA DEEP WEB
2.1. TAMAÑO
La internet superficial se compone de páginas indexadas en servidores DNS con
una alfabetización y codificación de página perfectamente entendible por los
motores de búsqueda, mientras que la internet profunda está compuesta de
páginas cuyos dominios están registrados con extensiones .onion y los nombres de
los dominios están codificados en una trama HASH. Sirven de forma ad hoc, y no
necesitan registrarse, basta con que tu ordenador tenga funcionando un servicio
onion, que hará las veces de un servicio dns, pero especial para las páginas del
internet profundo. Mediante una red P2P, se replican las bases de datos que
contienen la resolución de nombres HASH.
Mientras que las páginas normales son identificadas mediante el protocolo UDP/IP,
las páginas .onion son repetidas por el ramal al que se ha conectado el navegador
especializado para tal sistema de navegación segura. El sistema de búsqueda es
el mismo que usa BitTorrent. El contenido se coloca en una base de datos y se
proporciona sólo cuando lo solicite el usuario.
En 2010 se estimó que la información que se encuentra en la internet profunda es
de 7500 terabytes, lo que equivale a aproximadamente 550 billones de documentos
individuales. El contenido de la internet profunda es de 400 a 550 veces mayor de
lo que se puede encontrar en la internet superficial. En comparación, se estima que
la internet superficial contiene solo 19 terabytes de contenido y un billón de
documentos individuales.
También en 2010 se estimó que existían más de 200 000 sitios en la internet
profunda.
Estimaciones basadas en la extrapolación de un estudio de la Universidad de
California en Berkeley especula que actualmente la internet profunda debe tener
unos 91 000 terabytes.
La Association for Computing Machinery (ACM) publicó en 2007 que Google y
Yahoo indexaban el 32 % de los objetos de la internet profunda, y MSN tenía la
cobertura más pequeña con el 11 %. Sin embargo, la cobertura de los tres motores
era de 37 %, lo que indicaba que estaban indexando casi los mismos objetos.
8. CAPITULO III
DENOMINACIÓN DE LA DEP WEB
3 .1. DENOMINACIÓN
Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of
Electronic Publishing, mencionó que Jill Ellsworth utilizó el término «Web invisible»
en 1994 para referirse a los sitios web que no están registrados por ningún motor
de búsqueda.
En su artículo, Bergman citó la entrevista que Frank García hizo a Ellsworth en
1996:14
“Sería un sitio que, posiblemente, esté diseñado razonablemente, pero no
se molestaron en registrarlo en alguno de los motores de búsqueda. ¡Por
lo tanto, nadie puede encontrarlos! Estás oculto. Yo llamo a esto la Web
invisible.”
Otro uso temprano del término Web Invisible o web profunda fue por Bruce Monte
y Mateo B. Koll de Personal Library Software, en una descripción de la herramienta
@ 1 de web profunda, en un comunicado de prensa de diciembre de 1996.15
La importancia potencial de las bases de datos de búsqueda se reflejó en el sitio
de búsqueda, el motor AT1 que se anunció a bombo y platillo a principios de 1997.
Sin embargo, PLS, propietario de AT1, fue adquirida por AOL en 1998, y poco
después el servicio AT1 fue abandonado.
El primer uso del término específico de web profunda, ahora generalmente
aceptada, ocurrió en el estudio de Bergman de 2001 mencionado anteriormente.
Por otra parte, el término web invisible se dice que es inexacto porque:
Muchos usuarios asumen que la única forma de acceder a la web es consultando
un buscador.
Alguna información puede ser encontrada más fácilmente que otra, pero
esto no quiere decir que esté invisible.
La web contiene información de diversos tipos que es almacenada y
recuperada en diferentes formas.
El contenido indexado por los buscadores de la web es almacenado
también en bases de datos y disponible solamente a través de las peticiones o
consultas del usuario, por tanto no es correcto decir que la información
almacenada en bases de datos es invisible
9. CAPITULO IV
EL INTERNET ACADEMIA INVISIBLE
4 .1. LA ACADEMIA INVISIBLE
Se denomina Internet Académica Invisible o Academic Invisible Web (AIW) a el
conjunto de bases de datos y colecciones relevantes para la academia, o con fines
académicos, que no es posible ser buscado por los motores de búsqueda
convencionales. La preocupación sobre este tema radica en que millones de
documentos permanecen invisibles frente a los ojos de los usuarios
convencionales. Dentro de estos documentos se pueden encontrar artículos, libros,
reportes, documentos de acceso abierto, datos de encuestas, entre otros. El
problema con los motores de búsqueda convencionales es que no muestran
aquellos datos que cambian constantemente, como información climática o
imágenes satelitales y dicha información, al cambiar de manera tan rápida es
imposible de ser indexada por lo que restringe su aparición en los motores de
búsqueda convencionales.
Una aproximación al indexamiento y apertura de la Internet académica invisible son
los motores de búsqueda que se centran en información académica, como Google
Scholar o Scirus. El problema de estos motores de búsqueda mencionados
anteriormente es que fueron creados por compañías comerciales. El portal de
ciencia Vascoda ha demostrado ser la alternativa más efectiva para eliminar el
espacio entre la Internet académica visible e invisible ya que integra bases de datos
de literatura, colecciones de librerías y demás contenido académico mediante un
indexamiento basado en el uso de las etiquetas de cada uno de los dominios que
albergan dicha información.6
Cabe resaltar que no toda la ausencia de esta información en la Internet Visible se
debe a los motores de búsqueda, otro de estos factores se debe a que algunos de
estos documentos son propiedad de editoriales de base de datos.
10. 4.1.1 TAMAÑO DE LA INTERNET ACADEMIA INVISIBLE
El intento más acertado por realizar una medición de la cantidad de documentos
académicos presentes en la web invisible fue realizado por Bergman en 2001 en su
estudio The Deep Web: Surfacing Hideen Value. En dicha investigación Bergman
realizó un listado de los 60 sitios académicos más largos de la Deep Web entre los
que se encontraba el National Climatic Data Center (NOAA), NASA EOSDIS,
National Oceanographic (combined with Geophysical) Data Center (NOAA), entre
otras.
National Climatic Data Center (NOAA) Público
http://www.ncdc.noaa.gov/ol/satellite/satelliteresources.html366,000
NASA EOSDIS Público
http://harp.gsfc.nasa.gov/~imswww/pub/imswelcome/plain.html 219,600
National Oceanographic (combined with Geophysical) Data Center (NOAA)
Público/Pagohttp://www.nodc.noaa.gov/, http://www.ngdc.noaa.gov/ 32,940
DBT Online Pago http://www.dbtonline.com/ 30,500
Alexa Público (parcial) http://www.alexa.com/ 15,860
Right-to-Know Network (RTK Net) Público http://www.rtk.net/ 14,640
Lexis-Nexis Pago http://www.lexis-nexis.com/lncc/ 12,200
DialogPago http://www.dialog.com/ 10,980
Genealogy - ancestry.comPago http://www.ancestry.com/ 6,500
MP3.com Público http://www.mp3.com/ 4,300
Terraserver Público/Pagohttp://terraserver.microsoft.com/ 4,270
ProQuest Direct (incl. Digital Vault) Pago http://www.umi.com 3,172
Dun & Bradstreet Pago http://www.dnb.com3,113
Westlaw Pago http://www.westlaw.com/ 2,684
Dow Jones News Retrieval Pago http://dowjones.wsj.com/p/main.html 2,684
11. CAPITULO V
METODOS DE PROFUNDIZACIÓN DE LA DEEP WEB
5 .1. METODOS DE PROFUNDIZACION
Las arañas (web crawlers)
Cuando se ingresa a un buscador y se realiza una consulta, el buscador no recorre
la totalidad de internet en busca de las posibles respuestas, sino que busca en su
propia base de datos, que ha sido generada e indexada previamente. Se utiliza el
término «araña web» (en inglés web crawler) o robots (por software, comúnmente
llamados "bots") inteligentes que van haciendo búsquedas por enlaces de
hipertexto de página en página, registrando la información ahí disponible.
Cuando una persona realiza una consulta, el buscador no recorre la totalidad de
internet en busca de las posibles respuestas, lo cual supondría una capacidad de
reacción bastante lenta. Lo que hace es buscar en su propia base de datos, que ha
sido generada e indizada previamente. En sus labores de búsqueda, indización y
catalogación, utilizan las llamadas arañas (o robots inteligentes) que van saltando
de una página web a otra siguiendo los enlaces de hipertexto y registran la
información allí disponible.
[...] datos que se generan en tiempo real, como pueden ser valores de Bolsa,
información del tiempo, horarios de trenes.
El contenido que existe dentro de la internet profunda es en muy raras ocasiones
mostrado como resultado en los motores de búsqueda, ya que las «arañas» no
rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a
páginas protegidas con contraseñas, algunos desarrolladores que no desean que
sus páginas sean encontradas insertan etiquetas especiales en el código para
evitar que sea indexada. Las «arañas» son incapaces de mostrar páginas que no
estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un
signo de interrogación. Pero ahora sitios web no creados con HTML o con signos
de interrogación están siendo indexados por algunos motores de búsqueda. Sin
embargo, se calcula que incluso con estos buscadores más avanzados solo se
logra alcanzar el 16 % de la información disponible en la internet profunda. Existen
diferentes técnicas de búsqueda para extraer contenido de la internet profunda
como librerías de bases de datos o simplemente conocer el URL al que quieres
acceder y escribirlo manualmente.
12. Tor
The Onion Router (abreviado como TOR) es un proyecto diseñado e implementado
por la marina de los Estados Unidos lanzado el 20 de septiembre de 2002.
Posteriormente fue patrocinado por la EFF (Electronic Frontier Foundation, una
organización en defensa de los derechos digitales). Al presente (2019), subsiste
como TOR Project, una organización sin ánimo de lucro galardonada en 2011 por
la Free Software Foundation por permitir que millones de personas en el mundo
tengan libertad de acceso y expresión en internet manteniendo su privacidad y
anonimato.
A diferencia de los navegadores de internet convencionales, Tor le permite a los
usuarios navegar por la Web de forma anónima. Tor es descargado de 30 millones
a 50 millones de veces al año, hay 0,8 millones de usuarios diarios de Tor y un
incremento del 20 % solamente en 2013. Tor puede acceder a unos 6 500 sitios
web ocultos.
Cuando se ejecuta el software de Tor, para acceder a la internet profunda, los datos
de la computadora se cifran en capas. El software envía los datos a través de una
red de enlaces a otros equipos ―llamados en inglés «relays» (‘nodos’)― y lo va
retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta
trayectoria cambia con frecuencia. Tor cuenta con más de 4 000 retransmisiones y
todos los datos cifrados pasan a través de ―por lo menos― tres de estos relays.
Una vez que la última capa de cifrado es retirado por un nodo de salida, se conecta
a la página web que desea visitar.
El contenido que puede ser encontrado dentro de la internet profunda es muy vasto,
se encuentran por ejemplo, datos que se generan en tiempo real, como pueden ser
valores de Bolsa, información del tiempo, horarios de trenes, bases de datos sobre
agencias de inteligencia, disidentes políticos y contenidos criminales.
13. Criptomoneda
Logo de Bitcoin, una criptomoneda
Es posible encontrar sitios web que realicen transacciones ilegales (como drogas,
armas, o incluso sicarios) en servidores exclusivos para usuarios de Tor. Es una
práctica común utilizar monedas digitales como el Bitcoin21 que se intercambia a
través de billeteras digitales entre el usuario y el vendedor, lo que hace que sea
prácticamente imposible de rastrear.
Vale la pena acotar que salvo por excepciones de algunos mercados como Silk
Roads, The Trade Route, o Wall Street Market, la mayor parte del comercio en la
deep web se constituye a base de ofertas engañosas y fraudes en general, existe
una gran tendencia a satanizar a comunidades que buscan la libertad de expresión
y el anonimato, en el mundo hispano-hablante esta tendencia fue originada por
blogueros y youtubers que lejos de informar a las comunidades buscan crear
escándalos amarillistas para obtener ingresos por conceptos de publicidad de
sistemas como Adsense. En los últimos años se ha demostrado que el Bitcoin no
es una criptomoneda segura cuando se trata de la confidencialidad de los datos de
sus usuarios, motivo por el cual tendría poco sentido utilizarla en redes de
anonimato como Tor, Freenet, o I2P, cuyos usuarios intentan alcanzar el clímax del
anonimato, por lo cual no se puede descartar tampoco la intervención de empresas
propagandistas que intentan aumentar el valor de mercado del bitcoin.
14. CAPITULO VI
NIVELES DE LA DEEP WEB
6 .1. NIVELES
Nivel 0
El nivel 0 es la denominada Web común (Common web), la parte de Internet
indexada en los motores de búsqueda, con la información que encontramos cuando
entramos a la World Wide Web. También es conocida habitualmente por otros
términos como "clearnet", en contraposición a la Dark Web, o Internet superficial o
Web de superficie, frente a la Deep Web o Internet profunda.
Nivel 1
El nivel 1 de la Deep Web formaría en realidad aún parte del Internet de superficie,
conteniendo sitios todavía accesibles desde motores de búsqueda, pero también
sitios no indexados, como algunas redes sociales y comunidades, bases de datos
MySQL, alojamientos web, o servicios basados en redes de Intranet.
Nivel 2
Conocido como "Bergie Web", el nivel 2 de la Deep Web sería todavía accesible
para la mayoría de usuarios, incluyendo aún contenido que se podría considerar
como "clandestino", pero que podría estar indexado, como la conocida comunidad
de 4Chan. En este nivel también estarían contenidos y resultados bloqueados por
Google, servidores FTP, sistemas informáticos trampa conocidos como
"Honeypots", porno ilegal, principalmente "Jailbait", o todo tipo de vídeos. Sería
también uno de los niveles de Internet más grande de todos, conteniendo buena
parte de la información de la Red.
Nivel 3
El nivel 3 sería ya propiamente la Deep Web, y únicamente se puede acceder a
través de Proxy, o a través de redes anónimas como Tor para la información más
15. sensible. Este nivel estaría compuesto por todo tipo de pornografía, imágenes y
vídeos gore, escándalos de famosos (aunque éstos ya han circulado por el Internet
común en alguna ocasión), y especialmente mucha información sobre hacking,
como scripts de gusanos XSS, seguridad informática, vulnerabilidades de Internet
para hackers, análisis de datos, o información sobre todo tipo de virus informáticos.
Nivel 4
El cuarto nivel de la Deep Web se conoce como "Charter Web", y estaría dividido
en dos partes. La primera parte sería accesible desde Tor, y se podría encontrar
todo tipo de material cuestionable, incluyendo vídeos, películas y libros prohibidos.
También es el lugar para el mercado negro, desde juegos ilegales, al comercio de
drogas duras, comercio de especies de animales raros, o incluso el tráfico de
personas o para contratar asesinatos.
Usando Tor para acceder a la Deep WebLa segunda parte del nivel 4 solo sería
accesible mediante un sistema de shell cerrado (Closed Shell System), y su
supuesto contenido es el paraíso para los aficionados a las conspiraciones, la
ufología, la criptozoología, o todo tipo de pseudociencias.
Además de una buena lista de cosas ilegales y realmente enfermizas, quien sea
capaz de llegar hasta el nivel 4 de la Deep Web tendrá acceso supuestamente a
información oculta de todo tipo. Desde información sobre Hardware experimental,
inteligencia artificial, o supercomputación, a planes de experimentos de Tesla,
experimentos no conocidos de la Segunda Guerra Mundial, información sobre "La
Ley de los 13" (las supuestas 13 familias que dominan el mundo), o la ubicación de
la Atlántida.
Nivel 5
A partir del nivel 5 se supone que se encuentra el 80% de la información total de
Internet. Es conocido como "Marianas Web", en referencia a la profunda fosa de
las marianas del Océano Pacífico, y nunca se ha llegado a filtrar información sobre
lo que supuestamente contiene.
16. El nivel de las Marianas Web de la Internet profunda es donde empieza a mezclarse
realmente la realidad y la leyenda urbana. Si bien las anteriores capas de la Deep
Web existen de verdad (lo discutible sería su estructura y el contenido que
supuestamente tienen), el nivel 5 es mera especulación. Mito o realidad, se pueden
encontrar usuarios que venden supuestos accesos a las Marianas Web, y según se
especula, de existir, probablemente contenga documentación secreta de los
gobiernos.
Supuesto acceso a las Marianas Web
Nivel 6
El sexto nivel de la Deep Web se supone que hace exclusivamente de intermediario
entre las Marianas Web y el siguiente nivel. Para pasar al nivel 7 sería necesario
computación cuántica.
Nivel 7
El nivel 7 de la Deep web se conoce como "The Fog" (la niebla) o "Virus Soup"
(sopa de virus), y es definido habitualmente como una zona de guerra. Todos los
usuarios que llegan hasta aquí tratan a su vez de llegar hasta el nivel 8, el último
nivel de la Deep Web, mientras evitan que otras personas lo consigan, por los
medios que sean necesarios.
Este séptimo nivel de la Internet profunda estaría lleno de código malicioso para
tratar que otros usuarios lleguen hasta aquí e investiguen. Básicamente todos
luchan para mantener a los demás fuera debido al valor de la información y
sistemas del siguiente nivel.
Nivel 8
La última capa de la Deep Web, el nivel 8, se conoce como "The Primarch System",
y es imposible de acceder directamente a este nivel. Se supone que este sistema
Primarch es el que controla Internet, estando incluso fuera de control de cualquier
gobierno u organización.
17. CAPITULO VII
VENTAJAS Y DESVENTAJAS DE LA DEEP WEB
7.1. VENTAJAS
A pesar de su mala reputación existen movimientos dentro de la web profunda que
buscan recatar su labor social.
1.- Libertad de expresión.
Aunque muchos la dan por garantizada, no es así para todas las personas. Por
ejemplo, en China el contenido de la web esta limitado y censurado, así como la
prensa bajo pena de cárcel. Las atrocidades cometidas por el gobierno chino son
publicadas por la deep web. Es a través de esta que nos enteramos de la realidad
de otros países.
2.- Libros censurados.
Podrás encontrar libros censurados por los gobiernos y también libros regulares.
Este punto también va ligado a la piratería pues aquí no existe el copyright. Por
ende, podrás encontrar prácticamente cualquier libro que desees. Pero cuidado, no
es buena idea descargar prácticamente nada de la deep web por el problema de
los hackers. No querrás ni de casualidad que uno de ellos logre conocer tu cuenta
bancaria.
3.- Investigaciones encubiertas
En mayo de 1996, tres científicos del Laboratorio de Investigación Naval proponían
un mecanismo para que los usuarios pudieran acceder a Internet sin ser
identificados. Así fue creado la web profunda, en principio para realizar
investigaciones. Ahora podrás encontrar investigaciones científicas que no hallaras
en otros sitios o al menos no de forma actualizada.
4.- Activismo.
No sólo existen hackers «malos» y la prueba más famosa de ellos son Wikileaks o
Anonymous. Entre los descubrimientos están los abusos en Guantánamo, la
participación de Estados Unidos en los conflictos de medio oriente, espionaje entre
países, el complot de los alimentos trasgénicos y la lista sigue. Estos activistas
muchas veces basan sus investigaciones en contenidos de la Deep Web.
18. 7.2 DESVENTAJAS
Empecemos a analizar la web profunda por su mala reputación. No hay barreras
aquí, no hay regulaciones, todo es anónimo (o al menos en teoría). La libertad de
expresión es fácilmente tergiversada pero recordemos que ningún invento es
malo en sí mismo, todo depende de su uso.
1.- La web de los criminales.
Aquí podrás encontrar todo tipo de productos: drogas, armas y hasta órganos. Por
lo mismo que es anónima podrás contratar asesinos y hackers.
2.- Los hackers a la orden del día.
Hackers inundan la web profunda y son un peligro constante para cualquiera que
desee entrar en este mundo. Antes dijimos que el anonimato era en teoría y eso
es debido a que siempre está el riesgo de que un hacker profesional pueda
encontrarte y hacerse con tu información.
3.- Contenido perturbador e indeseable.
Existen muchas imágenes filtradas de la deep web en Internet que tú mismo o tú
misma puedes buscar. Numerosos crímenes son perpetuados en todo el mundo,
de estos muchos so recogidos por la deep web. Este es el verdadero motivo por
el cual no muchos se atreven a echar un vistazo; no será muy difícil encontrarte
imagenes de crímenes como mutilaciones, asesinatos o violaciones.
19. CONCLUSIONES
1. En conclusión podemos afirmar que la mitad de los encuestados conoce
acerca de la deep web, pero no tienen conocimiento acerca de el contenido
que hay dentro de esta web como las paginas Canabies UK, Thor library y
Ceboyachan .Los encuestados no han entrado en esta pagina, sin
embargo saben que si llegan a entrar a esta web su desarrollo académico y
diciplinar se vera afectado de manera negativa debido a que el contenido
que tiene no es adecuado.Algunos estudiantes no analizaban las preguntas
debido a que a la hora de responderlas eran incoherentes e imprecisos,
afirmaban no conocer la pagina y cuando se les preguntaba algo mas a
fondo tenían alguna base por lo tanto otra de nuestras conclusiones es que
los estudiantes con solo ver el nombre del tema como se les hacia confuso
negaban conocerlo.
2. En conclusion podemos afirmar que La deep weeb es una página del mal
tiene pedo filia, venta de estupefacientes,trata de personas etc. pero el
punto principal es en que nos afecta, esta página nos acepta directa e
indirectamente uno o se da de lo que tiene la deep web, esto puede llegara
a ser una presa fácil para los hackers, ellos te sacan la información, sabes
donde vives, tu familia, tus conocidos.
3. A pesar de la gran cantidad de información que contiene Deep Web, sigue
siendo una parte ambigua del mundo digital. Muchos usuarios de Internet
no han oído hablar de eso y creen que lo que ven en sus resultados de
búsqueda de Google es todo lo que la Web tiene para ofrecer. Otros
preferirían que se aboliera, afirmando que se trata de un mundo
clandestino de delincuencia y comportamiento poco ético. Luego están
aquellos que están interesados en las posibilidades de esta frontera
inexplorada, pero simplemente no saben por dónde empezar. Nunca podría
esperar cubrir completamente todos los aspectos de Deep Web en las
páginas de este WordPress. Si uno realmente quiere entender esta riqueza
de conocimiento en expansión, sería mejor que lo exploraran por sí
mismos. La Web profunda no va a desaparecer pronto. Vale la pena
dedicar nuestro tiempo a investigar más a fondo su contenido y aprender a
aprovechar su poder.
20. REFERENCIAS BIBLIOGRAFICAS
- https://static-b.walac.pe/wp-content/uploads/2017/02/iceberg.png
- " LO MÁS OSCURO DEL INTERNET LA DEEP WEB " Monografía del
curso Métodos y Técnicas de Estudio ESPEJO VILCAPOMA Claudia
Claudia Valentina Espejo Vilcapoma
C. Espejo Vilcapoma
- CREEPY HISTORIAS ORIGINAL
-INTERNET PROFUNDA,WIKIPEDIA
- MODELO DE MONOGRAFIA, WILMER LAZO SOLIS
- NIVELES DE LA DEEP WEB,
https://documentalium.blogspot.com/2018/09/los-niveles-de-la-deep-
web.html