«Deep web» es el término usado para describir al conjunto de bases de datos y sitios web que no son indexados por los motores de búsqueda por distintas razones. Esto significa que de forma convencional no es posible acceder a estos servicios lo que abre todo un mercado de posibilidades para operaciones ilegales y cualquier tipo de tarea que requiera de cierto anonimato.
Deep web presentacion 24 de marzo [autoguardado] documento finalRichi Vargas
INFORMACION Y EXPLICACION DE LO QUE PUEDES ENCONTRAR EN LA DEEP WEB SI ENTRAS CUIDATE DE NO ESTAR SOLO Y TE DESCUBRAN O PUEDE PASAR LO PEOR TE AREVES A ENTRAR?
Charla de contenido generalista sobre la Deep Web, impartida por Chema Alonso en el congreso e_Coned. En ella se habla de medios de pago e incidentes de seguridad.
«Deep web» es el término usado para describir al conjunto de bases de datos y sitios web que no son indexados por los motores de búsqueda por distintas razones. Esto significa que de forma convencional no es posible acceder a estos servicios lo que abre todo un mercado de posibilidades para operaciones ilegales y cualquier tipo de tarea que requiera de cierto anonimato.
Deep web presentacion 24 de marzo [autoguardado] documento finalRichi Vargas
INFORMACION Y EXPLICACION DE LO QUE PUEDES ENCONTRAR EN LA DEEP WEB SI ENTRAS CUIDATE DE NO ESTAR SOLO Y TE DESCUBRAN O PUEDE PASAR LO PEOR TE AREVES A ENTRAR?
Charla de contenido generalista sobre la Deep Web, impartida por Chema Alonso en el congreso e_Coned. En ella se habla de medios de pago e incidentes de seguridad.
Si bien los hospitales conjuntan a profesionales de salud que atienden a la población, existe un equipo de organización, coordinación y administración que permite que los cuidados clínicos se otorguen de manera constante y sin obstáculos.
Mario García Baltazar, director del área de Tecnología (TI) del Hospital Victoria La Salle, relató la manera en la que el departamento que él lidera, apoyado en Cirrus y Estela, brinda servicio a los clientes internos de la institución e impulsa una experiencia positiva en el paciente.
Conoce el Hospital Victoria La Salle
Ubicado en Ciudad Victoria, Tamaulipas, México
Inició operaciones en el 2016
Forma parte del Consorcio Mexicanos de Hospitales
Hospital de segundo nivel
21 habitaciones para estancia
31 camas censables
13 camillas
2 quirófanos
+174 integrantes en su plantilla
+120 equipos médicos de alta tecnología
+900 pacientes atendidos
Servicios de +20 especialidades
Módulos utilizados de Cirrus
HIS
EHR
ERP
Estela - Business Intelligence
Escaneo y eliminación de malware en el equiponicromante2000
El malware tiene muchas caras, y es que los programas maliciosos se reproducen en los ordenadores de diferentes formas. Ya se trate de virus, de programas espía o de troyanos, la presencia de software malicioso en los sistemas informáticos siempre debería evitarse. Aquí te muestro como trabaja un anti malware a la hora de analizar tu equipo
Los desafíos de calidad de software que nos trae la IA y los LLMsFederico Toledo
En esta charla, nos sumergiremos en los desafíos emergentes que la inteligencia artificial (IA) y los Large Language Models (LLMs) traen al mundo de la calidad del software y el testing. Exploraremos cómo la integración, uso o diseño de modelos de IA plantean nuevos retos, incluyendo la calidad de datos y detección de sesgos, sumando la complejidad de probar algo no determinístico. Revisaremos algunas propuestas que se están llevando adelante para ajustar nuestras tareas de testing al desarrollo de este tipo de sistemas, incluyendo enfoques de pruebas automatizadas y observabilidad.
Los desafíos de calidad de software que nos trae la IA y los LLMs
Deep web antonela yánez
1. UNIVERSIDAD REGIONAL AUTÓNOMA DE LOS ANDES
“UNIANDES”
FACULTAD DE CIENCIAS MÉDICAS
CARRERA DE MEDICINA
ALUMNA:
Antonela Yánez Verdezoto
MATERIA:
Informática
DOCENTE:
Ing. Roberto López Mg
TEMA:
Deep Web
SEMESTRE:
Primero
PARALELO:
“B”
PERIODO ACADEMICO:
Octubre 2017 – Febrero 2018
2. 1. ¿Qué es la deep web?
El concepto de deep web es sencillo. La deep web es aquella parte de la red que contiene
material, información y páginas web que no están indexadas en ninguno de los buscadores
existentes como pueden ser bing, google, yahoo, etc. Así en el hipotético caso que los
buscadores pudieran indexar la totalidad de contenido en la web significaría que
desaparecería la deep web.
No obstante esto es imposible ya que muchas de las páginas y documentos están hechos
de tal forma que no puedan ser indexables, ya sea porque están protegidos con contraseña,
porqué están realizados en formatos no indexables como por ejemplo páginas realizadas
completamente en flash, sin contenido html, etc. Si hacemos una analogía con la película
matrix podríamos decir que la totalidad de personas que toman la pastilla azul serian las
personas que solo navegan y conocen lo que denominamos red superficial mientras que
la totalidad de personas que tomarían la pastilla roja son las personas que conocerían la
existencia de la deep web.
2. ¿Qué tamaño tiene la deep web?
Muchos de vosotros quedareis sorprendidos en saber que la deep web presenta mucho
más contenido que la web superficial que nosotros podemos acceder. Según datos de la
Wikipedia en el año 2000 la internet superficial tenia un tamaño de 167 Terabytes
mientras que la deep web tenia una tamaño de 7500 Terabytes lo que significa que el
3. contenido de la deep web era 45 veces superior a la información que teníamos acceso en
aquel momento. Actualmente a día de hoy la universidad de California en Berkeley estima
que el tamaño real de la red profunda es de 91.000 Terabytes.
3. ¿Qué podemos encontrar en la deep web?
Todo lo que hay en la deep web no podemos decir que sea intrínsecamente malo. Podemos
encontrar contenido interesante y diverso como por ejemplo:
- Contenido almacenado por los gobiernos de distintos países.
- Organizaciones que almacenan información. Por ejemplo la NASA almacena
información acerca de las investigaciones científicas que realiza. Otro de
información almacenada puede ser datos meteorológicos, datos financieros,
directorios con información de personas, etc.
- Multitud de bases de datos de distinta índole. Las bases de datos representan un
% muy importante de la información almacenada en la deep web.
- Foros de temáticas diversas.
No obstante también nos podemos encontrar contenido muy desagradable como por
ejemplo los siguientes:
- Venta de drogas.
- Pornografía.
- Mercado negro de sicarios.
- Documentos clasificados como por ejemplo los de wikileaks. (Bueno diría que
esto malo no es.)
- Foros de crackers en busca de víctimas.
- Phishers, spammers, botnet agents, en busca de víctimas.
- Páginas para comprar o fabricar armas.
- Piratería de libros, películas, música, software, etc.
Nota: Afortunadamente el contenido que se acaba de describir representa un % muy
pequeño de lo que es la deep web. Este tipo de contenido se clasifica dentro de una sub
categoría de la deep web denominada darknet.
Nota: Cabe destacar que el 90% de contenido que existe en la deep web es accesible para
la totalidad de usuarios.
4. Como acceder a la DeepWeb
4. Todo el material perteneciente a la deep web no es accesible de forma corriente. Para
acceder a este contenido tenemos que acceder a través de un servidor proxy. En caso de
querer investigar y experimentar una muy buena opción para empezar es hacerlo a través
de la red Tor. La red Tor nos permitirá navegar tanto por la web superficial como dentro
de la deep web de forma anónima y segura.
Si buscan por la red verán muchas formas de navegar en la deep web mediante Tor. La
verdad es que hay varias opciones. Por ejemplo encontrarán muchos manuales en los que
se detalla que es necesario instalar los paquetes tor, privoxy y vidalia y a posterior te
explican como configurar el navegador adecuadamente para poder acceder a la deep web.
Si siguen los pasos adecuadamente podrán acceder tranquilamente a la deep web pero
personalmente pienso que el método que se describe en muchos posts presenta los
siguientes inconvenientes:
- Si instalas los paquetes tor, privoxy y vidalia y sigues los pasos que se describen
tenemos el problema que cada vez que arrancamos el ordenador se arrancan los
demonios de tor y privoxy que consumirán recursos. En el caso que queramos
tenerlos desactivados cada vez que accedamos a la deep web tendremos que estar
activando y desactivando estos procesos.
- Por muy buenos manuales que encuentran en la red para conectarse con
navegadores convencionales como por ejemplo Firefox o Chrome, es realmente
muy difícil ser anónimo en la red ya que estos navegadores no han sido pensados
precisamente para ser anónimos Por ejemplo el simple hecho te tener activados
Quicktime, flash o tener ciertas ciertas extensiones instaladas en nuestro
navegador puede revelar nuestra ip, identidad o localización a terceros vulnerando
así nuestra privacidad.
- En el caso de navegar por webs normales y corrientes los navegadores
convencionales, en caso de no estar configurados adecuadamente, no fuerzan la
navegación https.
(GreekLand, 2013)
Bibliografía
GreekLand.(23 de 03 de 2013). Obtenido de Blogde Tecnologia:https://geekland.eu/acceder-
a-la-deep-web/