Inteligencia Artificial en los Robots                             Detección de Obstáculos                                 ...
Como se observa en la figura 1.1 al conocer la posición de                      información recibida En la figura 1.4 W es...
misma forma en que nosotros lo hacemos para de esta formaestar dotado de un sentido de vista la cual utilizandoprogramació...
Próxima SlideShare
Cargando en…5
×

Inteligencia Artificial en los Robots Detección de Obstáculos

1.350 visualizaciones

Publicado el

En este ensayo trataremos el tema de el uso de la inteligencia artificial, para que el robot logre identificar los varios obstáculos que se le presenten, para esto empezaremos analizando los métodos de toma de datos es decir cómo puede visualmente un robot distinguir imágenes y así reconocer lo que pueden ser obstáculos y lo que puede ser su camino.

Publicado en: Tecnología, Viajes
0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
1.350
En SlideShare
0
De insertados
0
Número de insertados
14
Acciones
Compartido
0
Descargas
7
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Inteligencia Artificial en los Robots Detección de Obstáculos

  1. 1. Inteligencia Artificial en los Robots Detección de Obstáculos Pedro Francisco Rodas Rivera, Autor Facultad de Ingeniería Electrónica, Universidad Politécnica Salesiana Cuenca, Ecuador prodas@est.ups.edu.ecAbstract(English)— This essay will discuss the issue of the use of económicos e inofensivos para los seres humanos ya que noartificial intelligence, so that the robot could identify the various emiten ningún tipo de radiación como los sensores de radar yobstacles that you submit, it will begin analyzing the data además son fáciles de montar en el robot.collection methods is how a robot can visually distinguish and Uno de los métodos más utilizados cuando se utilizarecognize images they can be obstacles and what can be your sensores de captura de imágenes o cámaras es la odometríapath. visual que es el proceso de determinar la posición y laAbstract(Español)— En este ensayo trataremos el tema de el uso orientación de la cámara al analizar una secuencia dede la inteligencia artificial, para que el robot logre identificar los imágenes desde la misma [1].varios obstáculos que se le presenten, para esto empezaremosanalizando los métodos de toma de datos es decir cómo puede A. Percepción del robotvisualmente un robot distinguir imágenes y así reconocer lo que Para que el robot pueda operar efectivamente en nuestropueden ser obstáculos y lo que puede ser su camino. medio ambiente debe ser capaz de percibir todos los objetos que puedan representar un obstáculo para sí mismo, tenemosKeywords— Robot, Inteligencia Artificial (IA), Odometría dos sistemas de visión para el robot que son visión binocular yVisual, Visión Binocular, Visión Monocular, Percepción de visión monocular.Profundidad, Detección de Obstáculos. La visión binocular es muy utilizada en muchos ambientes, se basa en unir ciertos puntos en múltiples imágenes para I. INTRODUCCIÓN reconstruir información 3D. Cabe recalcar esta tecnología no La inteligencia artificial es sin duda uno de los campos más es del todo perfecta ya que hacer coincidir los puntos es unfascinantes de la robótica, al igual que el término “robot” la gran desafío. Esta técnica asume que los parámetros de laIA es difícil de definir, pero en pocas palabras se refiere al cámara no cambian, pero la mayoría de las cámaras modernasproceso de recreación del pensamiento y comportamiento tienden a cambiar sus parámetros automáticamente para tenerhumano que se refiere a hacer que la maquina tome sus un mejor enfoque, por estas razones avances recientes sepropias decisiones sin la intervención de la mano humana, en enfocaron en usar la visión monocular.un proceso más avanzado lograr que los robots mediante una La percepción de la profundidad es la habilidad de captar lavideo cámara logren captar imágenes y de esta forma tener un distancia en 3D esta percepción se la puede captar desdesensor de visión que les permita reconocer, y alertar de señales vistas desde una cámara (visión monocular) eobjetos próximos los cuales los tomará como obstáculo y imágenes vistas desde dos cámaras (visión binocular).haciendo uso de su programación o inteligencia artificialllegar a evitar o esquivar dicho objeto; si bien la robótica está B. La visión binocular y la profundidad absolutamuy lejana a lograr que un robot alcance un nivel bien grande La profundidad absoluta es la distancia precisa desde elde IA se puede recalcar que en los últimos años se han hecho objeto hasta el observador. En la robótica computacional lagrandiosos avances en este campo. profundidad absoluta es calculada desde señales binoculares como lo muestra la figura 1.1, nuestros ojos están separados a Los vehículos robóticos pueden realizar varias tareas como una distancia aproximada de 7cm el uno del otro, cada unoexploración, rescate y recolección de datos en lugares recibe ligeramente una señal distinta.peligrosos como desechos nucleares, en la guerra o ambientesextremos como la exploración interplanetaria. II. DESARROLLO Los sensores más usados basados según la distancia delobjeto son buscadores laser de rango, sensores ultrasónicos yradares; cuando se quiere dotas de métodos de visión los másutilizados son visión binocular (el uso de dos cámaras Fig. 1.1 Forma de percepción 3D para humanos y cámaras.trabajando juntas para crear una perspectiva 3D) y flujo óptico.La mejor opción es el uso de sensores de cámara por ser más
  2. 2. Como se observa en la figura 1.1 al conocer la posición de información recibida En la figura 1.4 W es el ancho de lacada cámara y hacer coincidir dos puntos desde cada foco se imagen, H es la altura de la imagen, A es el punto depuede obtener una triangulación bien precisa de la distancia de ubicación del robot, y B es el centro de la línea más alta de laeste punto en el espacio (X, Y, Z), lograr coincidir esos puntos imagen; por lo tanto el vector AB denota la dirección actualexactamente sin ningún tipo de error es imposible por lo tanto del robot, C es la profundidad del punto más lejano desde elsabes que siempre habrá algo de error entre la profundidad y robot tal que:el punto.C. Visión monocular y la profundidad relativa Donde P denota la región transitable, el ángulo de giro se lo obtiene de: La profundidad relativa es la distancia relativa de laprofundidad del objeto observado con otros objetos en la Ángulo de giromisma escena. Las señales importantes en una imagen son las Donde k es una constante dependiente del motor y denota eldirecciones de los bordes y perspectiva lineal como se muestra producto punto.en la figura 1.2 Fig. 1.2 Las líneas rojas representan los bordes de la perspectiva de vista.D. Problemas de cambio de iluminación en el exterior Cuando manejamos cámaras para guiar al robot, en bajascondiciones de luz este puede captar la sombra como unobstáculo lo cual significa un error para la percepción en losúltimos años se hicieron avances especialmente al modificar laimagen a una que no necesariamente depende de la luz,depende en buscar direcciones especiales en una imagen 2Dcromática cuando esta imagen invariante es proyectad en 1D,produce una imagen en escala de grises la cual es invariable a Fig. 1.4 Variables para la maniobra del robot.la intensidad y al color de las escenas de iluminación, existenotros métodos que requieren de la asistencia humana al ircomprobando en la imagen si este es un objeto o es simplesombra, también hay recientes estudios muy positivos sobre elcambio de color en escenas reales con buenos resultados deMohan Sridharan y Peter Stone [2]. Fig. 1.5 Trayectoria de navegación del robot. Fig. 1.3 Método cromático para detectar bordes. En la figura 1.5 se muestra la trayectoria que toma el robot al encontrarse con un objeto u obstáculo.E. Leyes de control y navegación del robot Una vez que el robot encuentra su trayectoria o encuentra Un robot móvil debería ser capaz de reconocer cambios enun obstáculo, este tomará acciones para evitar atravesar ese su entorno, y adaptar los modelos aprendidos para atravesarobstáculo de una u otra forma, al encontrar el área transitable sus nuevos obstáculos.este puede visualizar su nueva ruta y así evitar el obstáculo.F. Interfaz desde las imágenes para comandar los motores CONCLUSIONES Para la salida de lo que ve el robot en impulsos que muevan En este ensayo tocamos temas básicos sobre comoel robot, hay que tener una póliza de control, el robot debe utilizando tecnología de reconocimiento de formas ygirar de los obstáculos y ángulo de giro depende de la estructuras un robot puede percibir la profundidad de la
  3. 3. misma forma en que nosotros lo hacemos para de esta formaestar dotado de un sentido de vista la cual utilizandoprogramación y complejos algoritmos puede ser utilizadocomo dato de entrada para reconocer por donde puede y pordonde no puede para haciendo uso de su capacidad dedecisión tomara el camino que más le parezca.Vimos los diferentes métodos de visualización que hoy en díase utilizan empleando una o varias cámaras para de esta formahacer un mapa tridimensional del área para el robot, teniendocomo uno de los puntos más importantes a tener en cuenta lacalidad, claridad y resolución de imagen que recibe el robot yaque de esta depende para hacer un reconocimiento correcto óerróneo del ambiente que lo rodea, y vimos que parasituaciones de poca luz se utilizan procesamiento de imágenespara hacerlas monocromáticas figura 1.3 donde el fondo negropuede dar un 0 lógico y los bordes blancos un 1 lógico. BIBLIOGRAFÍA[1] Anders Hagnelius, Visual Odometry (Abril 2005), UMEA University, Department of Computing Science.[2] Sridharan, M., Stone, P.: Color learning and illumination invariance on mobile robots: un estudio.[3] Honghai Liu, Dongbing Gu, Roberts J Howlett, Yonghuai Liu (Eds.), Robot Intelligence An Advanced Knowledge Processing Approach, Springer.[4] http://www.webopedia.com/TERM/A/artificial_intelligence.html[5] http://science.howstuffworks.com/robot6.htm

×