PIAR v 015. 2024 Plan Individual de ajustes razonables
Universidad nacional de chimborazo
1. UNIVERSIDAD NACIONAL DE CHIMBORAZO
FACULTAD DE CIENCIAS DE LA SALUD
CARRERA DE MEDICINA
CATEDRA DE INFORMATICA
PRIMER SEMESTRE “B”
OCTUBRE 2016- MARZO 2017
NOMBRE: INDHIRA BARZOLA SANTANA
TEMA: LA DEEP WEB
2. La Deep Web.
Sí, el 96% de Internet no es accesible a través de buscadores estándar. Se puede encontrar
de todo por ahí: porno infantil, blanqueo de bitcoins, compra de narcóticos...
Se conoce como internet profunda, internet invisible o internet oculta al contenido
de internet que no es indexado por los motores de búsqueda convencionales, debido a
diversos factores. El término se atribuye al informático Mike Bergman. Es el opuesto
al Internet superficial.
La principal causa de la existencia de la internet profunda es la imposibilidad de los
motores de búsqueda (DuckDuckGo, Google, Yahoo, Bing, etc.) de encontrar o indexar
gran parte de la información existente en internet. Si los buscadores tuvieran la capacidad
para acceder a toda la información entonces la magnitud de la «internet profunda» se
reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran
indexar la información de la internet profunda esto no significaría que esta dejará de
existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden
acceder a la información de estas páginas y solo determinados usuarios, aquellos con
contraseñas o códigos especiales, pueden hacerlo.
La internet profunda es un conjunto de sitios web y bases de datos que buscadores
comunes no pueden encontrar ya que no están indexadas. El contenido que se puede hallar
dentro de la internet profunda es muy amplio.
El internet se ve dividido en dos ramas, La internet profunda y la superficial. La internet
superficial se compone de páginas estáticas o fijas, mientras que la web profunda está
compuesta de páginas dinámicas. Las páginas estáticas no dependen de una base de datos
para desplegar su contenido, sino que residen en un servidor en espera de ser recuperadas,
y son básicamente archivos HTML cuyo contenido nunca cambia. Todos los cambios se
realizan directamente en el código y la nueva versión de la página se carga en el servidor.
Estas páginas son menos flexibles que las páginas dinámicas. Las páginas dinámicas se
crean como resultado de una búsqueda de base de datos. El contenido se coloca en una
base de datos y se proporciona solo cuando lo solicite el usuario.
Bibliografía
wikipedia . (25 de octubre de 2016). Obtenido de la deep web:
https://es.wikipedia.org/wiki/Internet_profunda
xataka. (11 de febrero de 2015). Obtenido de la deep web: http://www.xataka.com/analisis/una-
semana-en-la-deep-web-esto-es-lo-que-me-he-encontrado