RETO MES DE ABRIL .............................docx
Realidad Virtual UNEFA Bolívar
1. REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA DEFENSA
UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA
DE LA FUERZA ARMADA BOLIVARIANA
NÚCLEO LARA
REALIDAD
VIRTUAL
INTEGRANTES:
JOHAN GONZÁLEZ C.I: 19.855.826
OSCAR CANELON C.I.: 20.234.686
ENRIQUE CASTILLO C.I.: 16.567.842
JAVIER SALAS C.I.: 18.527.690
SECCIÓN: 8N2IS
ENERO, 2011
2. REALIDAD VIRTUAL
La realidad en la que vivimos no es más que un modelo creado por nuestro
cerebro basándose en los diferentes impulsos eléctricos generados en su interior.
Por tanto, tal y como explica Stephen Hawking en su nuevo libro El gran diseño:
“… nuestros cerebros interpretan los datos de los órganos sensoriales elaborando
un modelo del mundo. Cuando el modelo explica satisfactoriamente los
acontecimientos tendemos a atribuirle, a él y a los elementos y conceptos que lo
integran, la calidad de realidad o verdad absoluta.”
Pero esos impulsos eléctricos generados que cambiarán el estado de las
conexiones entre las diferentes neuronas del cerebro pueden tener como origen el
sistema nervioso, que al recibir ciertas señales del exterior envía un impulso
eléctrico al cerebro, o el mismo cerebro. Es decir, puede ser el cerebro mismo el
que cree esos impulsos eléctricos, tal y como sucede en un sueño. Cuando
estamos soñando el cerebro crea o simula ciertas situaciones que en ese
momento consideramos “reales” mediante impulsos eléctricos. Las neuronas
crearán pues una nueva realidad que aparentemente no está sucediendo y que
nosotros, en ese momento, consideramos verdadera. Normalmente lo harán
basándose en información que ya tienen (como pueden ser recuerdos o
experiencias ya vividas), aunque podrán crear situaciones nuevas con elementos
nunca vistos antes o con situaciones que nunca hemos vivido.
Por tanto, ¿por qué una realidad generada dentro un agente inteligente (ya
sea computador o cerebro) no puede ser “verdadera”? Podemos encontrar un
ejemplo claro en la esquizofrenia. El enfermo estará de acuerdo con que la
realidad que vive es la verdadera. Sin embargo, un observador exterior aseguraría
que lo que ve no es realmente lo que está sucediendo.
Una vez demostrado que la realidad no es más que un modelo creado por
un agente inteligente (ya sea cerebro o computadora), podemos empezar a hablar
sobre la realidad virtual.
3. Las corrientes y diferencias de voltaje existentes entre las neuronas
constituyen lo que para nosotros es nuestro “yo”. Por tanto, nuestra consciencia no
es más que el conjunto de interacciones electromagnéticas entre las neuronas de
nuestro cerebro y en consecuencia, susceptible de ser almacenada como una
secuencia de bits interpretable por un agente inteligente.
Veíamos cómo se está trabajando en esos agentes inteligentes que en un
futuro serán capaces de interpretar esa información y simular una realidad virtual.
En un futuro próximo cada uno de nosotros tendrá varias copias de seguridad de
sí mismo que ejecutadas en un agente inteligente darán paso a otro “yo” con los
mismo hobbies, gustos literarios, temores, habilidades y en general cualquier
característica que nos hiciera “únicos”. Así pues, tras un accidente de coche por
ejemplo, aun habiendo fallecido biológicamente tendremos una copia de seguridad
de nosotros mismos en un agente inteligente que sabrá imitar nuestro
comportamiento y así llevar una vida paralela a la anterior pero siendo un “yo”
indistinguible del original.
Es evidente que uno de los efectos de este fenómeno es la supervivencia
de nuestra especie. No sólo alargaremos nuestra consciencia indefinidamente,
sino que evitaremos los límites físicos que nos impiden explorar el resto del
universo.
Según Raymond Kurzweil, en 2029 las máquinas serán tan inteligentes
como los humanos. Serán capaces de sentir, emocionarse y actuar igual que
nosotros. En un futuro próximo, tendremos nanobots implantados en el cerebro
que mejorarán y optimizarán nuestro cerebro, dando paso a los cyborgs. En la
actualidad, existen varios de estos cyborgs que tienen implantados chips ópticos,
brazos biónicos, implantes cocleares, etc.
Así pues, seremos capaces de implantar miles de estos nanobots para que
interactúen con nuestras neuronas y así poder mejorar y optimizar nuestro
cerebro. Tendremos un cerebro mucho más potente y será capaz de conectarse a
4. internet, descargarse actualizaciones, conectarse a diferentes entornos virtuales,
etc.
Clasificación de los sistemas de Realidad Virtual:
- Realidad Virtual de Escritorio (Desktop systems or a Window on a World
(WoW)) Aquellas instalaciones que muestran el mundo virtual a través de
un monitor. Ej: Juegos PC, playstations, algunos simuladores específicos
- Realidad Virtual en segunda persona El usuario es introducido en el
mundo virtual como parte de la escena. Variación de los sistemas de
Escritorio.
- Telepresencia Sistemas equipados con cámaras micrófonos y dispositivos
táctiles que permiten al usuario experimentar una situación remota. En
muchos casos se utilizan robots controlados por telepresencia. Ej:
Telecirugía, Microcirugía, Exploración del fondo marino y fenómenos
volcánicos, etc.
- Realidad aumentada: Este sistema permite al usuario valerse del mundo
real pero a través de cristales que complementan las imágenes con
diagramas, textos o referencias. Se suele ver esto en las películas con
soldados futuristas, solamente que no es cosa del futuro.
- Inmersión Sumergen al usuario en un mundo virtual mediante el uso de
cascos visuales y auditivos, rastreadores de posición y movimiento. Ej:
sistemas de videojuegos, arquitectura virtual, etc.
VISIÓN ARTIFICIAL
La visión artificial es una subrama de la inteligencia artificial orientada a
permitir al computador a que pueda entender una imagen o conjunto de ella.
Un sistema de visión artificial se compone básicamente de los siguientes
elementos:
5. • Fuente de luz: es un aspecto de vital importancia ya que debe proporcionar
unas condiciones de iluminación uniformes e independientes del entorno,
facilitando además, si es posible, la extracción de los rasgos de interés para
una determinada aplicación.
• Sensor de imagen: es el encargado de recoger las características del
objeto bajo estudio.
• Tarjeta de captura o adquisición de imágenes: es la interfaz entre el
sensor y la computadora o módulo de proceso que permite al mismo
disponer de la información capturada por el sensor de imagen.
• Algoritmos de análisis de imagen: es la parte inteligente del sistema. Su
misión consiste en aplicar las transformaciones necesarias y extracciones
de información de las imágenes capturadas, con el fin de obtener los
resultados para los que haya sido diseñado.
• Computadora o módulo de proceso: es el sistema que analiza las
imágenes recibidas por el sensor para extraer la información de interés en
cada uno de los casos implementando y ejecutando los algoritmos
diseñados para la obtención de los objetivos.
• Sistema de respuesta en tiempo real: con la información extraída, los
sistemas de visión artificial pueden tomar decisiones que afecten al sistema
productivo con el fin de mejorar la calidad global de producción.
Algoritmos de análisis de imagen y reconocimiento de formas
Los algoritmos relacionados con visión artificial son muy variados y abarcan
numerosas técnicas y objetivos. Los pasos más comunes en que consiste el
análisis o procesamiento.
6. Filtrado o Pre-procesamiento
Cuando se adquiere una imagen mediante cualquier sistema de captura,
por lo general esta no es directamente utilizable por el sistema de visión. La
aparición de variaciones en intensidad debidas al ruido, por deficiencias en la
iluminación, o la obtención de imágenes de bajo contraste, hace necesario un
preprocesamiento de la imagen con el objetivo fundamental de corregir estos
problemas, además de aplicar aquellas transformaciones a la imagen que
acentúen las características que se deseen extraer de las mismas, de manera que
se facilite las operaciones de las etapas posteriores. A este campo pertenecen las
técnicas de transformaciones geométricas, las basadas en el histograma. Aunque
existen líneas de investigación abiertas, no es el campo más activo en ese
sentido, y las técnicas existentes son bastante útiles para la mayoría de las
aplicaciones.
Algunas de las técnicas más habituales son:
• Conversión de los niveles de gris: su objetivo es la mejora de la calidad
de la imagen.
• Transformaciones geométricas: los objetivos de ésta son la corrección de
la perspectiva y la reconstrucción tridimensional de los objetos de la
escena.
• Transformación del histograma: las transformaciones del histograma
pueden facilitar la segmentación de objetos de la imagen, aunque
7. habitualmente sólo sirve para modificar el contraste de la imagen y el rango
dinámico de los niveles de gris.
• Filtrado espacial y frecuencial: dado que pueden suponer una importante
modificación de la imagen original, generalmente sólo se consideran
filtrados aquellas operaciones realizadas en el dominio espacial o
frecuencial que suponen transformaciones pequeñas de la imagen original.
Segmentación o aislamiento de los objetos de interés
Cuando ya se dispone de la imagen capturada y filtrada, es necesario aislar
o separar los objetos de interés de la escena. Se pretende por tanto dividir una
imagen en diferentes regiones, o dicho de otra forma, detectar automáticamente
los bordes entre los elementos o regiones. Las operaciones de segmentación de
una escena dependen de la propia escena y de la información que se busque
dentro de la imagen. Por ejemplo, en fotografía aérea se utiliza para separar
regiones pobladas, agrícolas, bosques, aguas, etc. En imagen médica se usa para
aislar zonas enfermas de los órganos, o para detectar y contar microorganismos
en microscopia. Industrialmente, se usa como primer paso para la medición de
piezas, para determinar la correcta disposición del etiquetado de los envases
(aislar el envase, aislar la etiqueta, determinar si la relación entre estos dos
objetos es correcta), para la medición de irregularidades en superficies
homogéneas, para la detección de cambios de texturas en las que el sistema ha
de determinar si es un defecto o no lo es, etc.
Las técnicas básicas de segmentación se pueden dividir en tres grupos:
Aplicación de umbrales de niveles de gris.
Agrupación por rasgos comunes.
Extracción de bordes.
8. La segmentación de imagen es una temática actual de investigación y se
han definido numerosos métodos diseñados para aplicaciones particulares. No
obstante, no hay métodos que sean útiles en una amplia variedad de situaciones,
por lo que cada problema necesita la adaptación o desarrollo de nuevas técnicas.
Segmentación de imágenes
La segmentación en el campo de la visión artificial es el proceso de dividir
una imagen digital en varias partes (grupos de píxeles) u objetos. El objetivo de la
segmentación es simplificar y/o cambiar la representación de una imagen en otra
más significativa y más fácil de analizar. La segmentación se usa tanto para
localizar objetos como para encontrar los límites de estos dentro de una imagen.
Más precisamente, la segmentación de la imagen es el proceso de asignación de
una etiqueta a cada píxel de la imagen de forma que los píxeles que compartan la
misma etiqueta también tendrán ciertas características visuales similares.
El resultado de la segmentación de una imagen es un conjunto de segmentos que
cubren en conjunto a toda la imagen, o un conjunto de las curvas de nivel
extraídas de la imagen (véase la detección de bordes). Cada uno de los píxeles de
una región son similares en alguna característica, como el color, la intensidad o la
textura. Regiones adyacentes son significativamente diferentes con respecto a
la(s) misma(s) característica(s).
Técnicas de segmentación de imágenes
• Métodos basados en el histograma
Los métodos basados en el histograma son muy eficientes en comparación con otros
métodos de segmentación de la imagen, ya que normalmente requieren sólo una pasada
por los pixeles. En esta técnica, un histograma se calcula a partir de todos los píxeles de
la imagen, y los picos y valles en el histograma se utilizan para localizar los grupos en la
imagen (el color o la intensidad pueden ser usados como medida). Un refinamiento de
esta técnica consiste en aplicar de forma recursiva el método de búsqueda de histograma
a los clusters de la imagen con el fin de dividirlos en grupos más pequeños. Esto se repite
con las agrupaciones, cada vez más pequeños hasta que no se puedan formar más
agrupaciones. Una desventaja del método de búsqueda de histograma es que puede ser
difícil de identificar los picos y valles importantes en la imagen.
9. • Método del valor umbral (umbralización)
El método del valor umbral (umbralización) consiste en fijar unos umbrales (límites) de
forma que los píxeles que se encuentre entre cada par de límites formarán un objeto al
realizar la segmentación. En el método del valor umbral hay dos posibles situaciones:
1. Umbral único. Se da cuando solamente hay dos agrupaciones de píxeles semejantes
en una imagen (un objeto y el fondo), para separarlos se establece un umbral T y los
puntos menores a dicho umbral formarán una parte de la imagen y los mayores la otra.
2. Umbral multinivel. Dada una imagen con x objetos, para separarlos todos hacen falta x-
1 umbrales de forma que los píxeles que se encuentre entre cada par de umbrales Ti y Tj
representarán a un objeto.
Los umbrales elegidos pueden ser de varios tipos dependiendo de las características
tenidas en cuenta para su elección.
Extracción y selección de características
Con los objetos a estudiar ya definidos, es necesario extraer una serie de
medidas que los caractericen adecuadamente, en forma de vector de
características. Como norma general, para la elección de características se intenta
que:
• Sean discriminantes, es decir, tengan valores numéricos diferentes para
clases diferentes.
• Sean fiables, es decir, tengan valores parecidos dentro de una misma clase.
• Estén incorreladas, es decir, obtener la misma información con el mínimo
número de características.
• Se calculen en un tiempo aceptable, de manera que sea utilizable en
problemas de tiempo real.
Dado que las características relevantes son a menudo desconocidas a priori,
habitualmente se introducen muchas características candidatas para intentar
10. representar mejor las clases, aún cuando muchas de ellas puedan ser parcial o
completamente redundantes o irrelevantes. No obstante, existen unas técnicas
para mejorar las prestaciones del conjunto de características escogido
inicialmente. Éstas están íntimamente ligadas al reconocimiento de formas en su
etapa de diseño del clasificador.
Reconocimiento de formas e inteligencia artificial
Normalmente, la visión artificial se utiliza para tomar decisiones a partir de
la información proporcionada por el sistema de adquisición de imágenes y las
transformaciones y operaciones realizadas con ellas. La información extraída se
puede considerar como un vector que recoge las características o rasgos
diferenciadores de la imagen analizada. En el caso de que se trate de una
aplicación de medición, este vector recoge todas aquellas medidas que se
deseaban obtener. En aplicaciones de inspección, y sobre todo, en aplicaciones
de clasificación, este vector es el conjunto de datos con los que ha de trabajar un
reconocedor o clasificador encargado de extraer las conclusiones posibles a partir
del vector de entrada. Para el diseño del clasificador es necesaria una etapa de
selección de características y una etapa de aprendizaje o entrenamiento.
Generalmente, se usa el propio clasificador como evaluador del conjunto de
características en prueba dado que el método que proporciona la mayor fiabilidad,
aunque sea el más costoso temporalmente y de menor generalidad o capacidad
de aplicación del clasificador a otros problemas. Respecto a los métodos clásicos
de búsqueda secuencial, actualmente uno de los campos de investigación abiertos
es el uso de algoritmos genéticos para la selección en paralelo de características.
En el reconocimiento de formas aplicado a la visión artificial se utilizan técnicas de
reconocimiento geométrico de formas, como el aprendizaje supervisado (se
conoce la clase a la que pertenece cada vector) en condiciones estadísticas o
algoritmos de clasificación no supervisados o clustering y, además, las redes
neuronales, siendo estas últimas especialmente interesantes por su capacidad de
aprendizaje adaptativo. Existen numerosos algoritmos para cada una de estas
11. técnicas y se investiga ampliamente el desarrollo de nuevos algoritmos e
implementaciones hardware de éstos. El problema fundamental de estas técnica,
es que cada una de ellas suele ser la más adecuada para las características de un
tipo específico de problema no conocidas a priori, lo que dificulta la selección de la
técnica con la que se desea abordar inicialmente el problema.