En este ensayo trataremos el tema de el uso de la inteligencia artificial, para que el robot logre identificar los varios obstáculos que se le presenten, para esto empezaremos analizando los métodos de toma de datos es decir cómo puede visualmente un robot distinguir imágenes y así reconocer lo que pueden ser obstáculos y lo que puede ser su camino.
Inteligencia Artificial en los Robots Detección de Obstáculos
1. Inteligencia Artificial en los Robots
Detección de Obstáculos
Pedro Francisco Rodas Rivera, Autor
Facultad de Ingeniería Electrónica, Universidad Politécnica Salesiana
Cuenca, Ecuador
prodas@est.ups.edu.ec
Abstract(English)— This essay will discuss the issue of the use of económicos e inofensivos para los seres humanos ya que no
artificial intelligence, so that the robot could identify the various emiten ningún tipo de radiación como los sensores de radar y
obstacles that you submit, it will begin analyzing the data además son fáciles de montar en el robot.
collection methods is how a robot can visually distinguish and Uno de los métodos más utilizados cuando se utiliza
recognize images they can be obstacles and what can be your
sensores de captura de imágenes o cámaras es la odometría
path.
visual que es el proceso de determinar la posición y la
Abstract(Español)— En este ensayo trataremos el tema de el uso orientación de la cámara al analizar una secuencia de
de la inteligencia artificial, para que el robot logre identificar los imágenes desde la misma [1].
varios obstáculos que se le presenten, para esto empezaremos
analizando los métodos de toma de datos es decir cómo puede A. Percepción del robot
visualmente un robot distinguir imágenes y así reconocer lo que Para que el robot pueda operar efectivamente en nuestro
pueden ser obstáculos y lo que puede ser su camino. medio ambiente debe ser capaz de percibir todos los objetos
que puedan representar un obstáculo para sí mismo, tenemos
Keywords— Robot, Inteligencia Artificial (IA), Odometría dos sistemas de visión para el robot que son visión binocular y
Visual, Visión Binocular, Visión Monocular, Percepción de visión monocular.
Profundidad, Detección de Obstáculos. La visión binocular es muy utilizada en muchos ambientes,
se basa en unir ciertos puntos en múltiples imágenes para
I. INTRODUCCIÓN
reconstruir información 3D. Cabe recalcar esta tecnología no
La inteligencia artificial es sin duda uno de los campos más es del todo perfecta ya que hacer coincidir los puntos es un
fascinantes de la robótica, al igual que el término “robot” la gran desafío. Esta técnica asume que los parámetros de la
IA es difícil de definir, pero en pocas palabras se refiere al cámara no cambian, pero la mayoría de las cámaras modernas
proceso de recreación del pensamiento y comportamiento tienden a cambiar sus parámetros automáticamente para tener
humano que se refiere a hacer que la maquina tome sus un mejor enfoque, por estas razones avances recientes se
propias decisiones sin la intervención de la mano humana, en enfocaron en usar la visión monocular.
un proceso más avanzado lograr que los robots mediante una La percepción de la profundidad es la habilidad de captar la
video cámara logren captar imágenes y de esta forma tener un distancia en 3D esta percepción se la puede captar desde
sensor de visión que les permita reconocer, y alertar de señales vistas desde una cámara (visión monocular) e
objetos próximos los cuales los tomará como obstáculo y imágenes vistas desde dos cámaras (visión binocular).
haciendo uso de su programación o inteligencia artificial
llegar a evitar o esquivar dicho objeto; si bien la robótica está B. La visión binocular y la profundidad absoluta
muy lejana a lograr que un robot alcance un nivel bien grande La profundidad absoluta es la distancia precisa desde el
de IA se puede recalcar que en los últimos años se han hecho objeto hasta el observador. En la robótica computacional la
grandiosos avances en este campo. profundidad absoluta es calculada desde señales binoculares
como lo muestra la figura 1.1, nuestros ojos están separados a
Los vehículos robóticos pueden realizar varias tareas como una distancia aproximada de 7cm el uno del otro, cada uno
exploración, rescate y recolección de datos en lugares recibe ligeramente una señal distinta.
peligrosos como desechos nucleares, en la guerra o ambientes
extremos como la exploración interplanetaria.
II. DESARROLLO
Los sensores más usados basados según la distancia del
objeto son buscadores laser de rango, sensores ultrasónicos y
radares; cuando se quiere dotas de métodos de visión los más
utilizados son visión binocular (el uso de dos cámaras Fig. 1.1 Forma de percepción 3D para humanos y cámaras.
trabajando juntas para crear una perspectiva 3D) y flujo óptico.
La mejor opción es el uso de sensores de cámara por ser más
2. Como se observa en la figura 1.1 al conocer la posición de información recibida En la figura 1.4 W es el ancho de la
cada cámara y hacer coincidir dos puntos desde cada foco se imagen, H es la altura de la imagen, A es el punto de
puede obtener una triangulación bien precisa de la distancia de ubicación del robot, y B es el centro de la línea más alta de la
este punto en el espacio (X, Y, Z), lograr coincidir esos puntos imagen; por lo tanto el vector AB denota la dirección actual
exactamente sin ningún tipo de error es imposible por lo tanto del robot, C es la profundidad del punto más lejano desde el
sabes que siempre habrá algo de error entre la profundidad y robot tal que:
el punto.
C. Visión monocular y la profundidad relativa Donde P denota la región transitable, el ángulo de giro se lo
obtiene de:
La profundidad relativa es la distancia relativa de la
profundidad del objeto observado con otros objetos en la Ángulo de giro
misma escena. Las señales importantes en una imagen son las Donde k es una constante dependiente del motor y denota el
direcciones de los bordes y perspectiva lineal como se muestra producto punto.
en la figura 1.2
Fig. 1.2 Las líneas rojas representan los bordes de la perspectiva de vista.
D. Problemas de cambio de iluminación en el exterior
Cuando manejamos cámaras para guiar al robot, en bajas
condiciones de luz este puede captar la sombra como un
obstáculo lo cual significa un error para la percepción en los
últimos años se hicieron avances especialmente al modificar la
imagen a una que no necesariamente depende de la luz,
depende en buscar direcciones especiales en una imagen 2D
cromática cuando esta imagen invariante es proyectad en 1D,
produce una imagen en escala de grises la cual es invariable a Fig. 1.4 Variables para la maniobra del robot.
la intensidad y al color de las escenas de iluminación, existen
otros métodos que requieren de la asistencia humana al ir
comprobando en la imagen si este es un objeto o es simple
sombra, también hay recientes estudios muy positivos sobre el
cambio de color en escenas reales con buenos resultados de
Mohan Sridharan y Peter Stone [2].
Fig. 1.5 Trayectoria de navegación del robot.
Fig. 1.3 Método cromático para detectar bordes.
En la figura 1.5 se muestra la trayectoria que toma el robot
al encontrarse con un objeto u obstáculo.
E. Leyes de control y navegación del robot
Una vez que el robot encuentra su trayectoria o encuentra Un robot móvil debería ser capaz de reconocer cambios en
un obstáculo, este tomará acciones para evitar atravesar ese su entorno, y adaptar los modelos aprendidos para atravesar
obstáculo de una u otra forma, al encontrar el área transitable sus nuevos obstáculos.
este puede visualizar su nueva ruta y así evitar el obstáculo.
F. Interfaz desde las imágenes para comandar los motores CONCLUSIONES
Para la salida de lo que ve el robot en impulsos que muevan En este ensayo tocamos temas básicos sobre como
el robot, hay que tener una póliza de control, el robot debe utilizando tecnología de reconocimiento de formas y
girar de los obstáculos y ángulo de giro depende de la estructuras un robot puede percibir la profundidad de la
3. misma forma en que nosotros lo hacemos para de esta forma
estar dotado de un sentido de vista la cual utilizando
programación y complejos algoritmos puede ser utilizado
como dato de entrada para reconocer por donde puede y por
donde no puede para haciendo uso de su capacidad de
decisión tomara el camino que más le parezca.
Vimos los diferentes métodos de visualización que hoy en día
se utilizan empleando una o varias cámaras para de esta forma
hacer un mapa tridimensional del área para el robot, teniendo
como uno de los puntos más importantes a tener en cuenta la
calidad, claridad y resolución de imagen que recibe el robot ya
que de esta depende para hacer un reconocimiento correcto ó
erróneo del ambiente que lo rodea, y vimos que para
situaciones de poca luz se utilizan procesamiento de imágenes
para hacerlas monocromáticas figura 1.3 donde el fondo negro
puede dar un 0 lógico y los bordes blancos un 1 lógico.
BIBLIOGRAFÍA
[1] Anders Hagnelius, Visual Odometry (Abril 2005), UMEA University,
Department of Computing Science.
[2] Sridharan, M., Stone, P.: Color learning and illumination invariance on
mobile robots: un estudio.
[3] Honghai Liu, Dongbing Gu, Roberts J Howlett, Yonghuai Liu (Eds.),
Robot Intelligence An Advanced Knowledge Processing Approach,
Springer.
[4] http://www.webopedia.com/TERM/A/artificial_intelligence.html
[5] http://science.howstuffworks.com/robot6.htm