2. HUMANO
• Sensores
• Ojos, nariz,
Oídos, Boca,
Piel
• Actuadores
• Manos, Pies,
Cuerdas
Vocales
ROBOTS
• Sensores
• Cámaras,
Infrarrojos,
Láseres,
Sensores de
presión, etc.
• Actuadores
• Motores,
Brazos,
mecánicos,
Pinzas,
Altavoces,
SOFTWARE
• Sensores
• Pulsaciones
de teclado,
Contenido de
Archivos,
Datos de Red
Recibidos,
etc.
• Actuadores
• Pantallas,
Archivos de
Un agente se define como una entidad capaz de percibir su entorno
a través de sensores y actuar en ese entorno a través de actuadores
3. PERCEPCIÓN:
Capacidad de recibir
INFORMACIÓN del entorno
SECUENCIA DE PERCEPCIONES:
Historia completa de los datos
que ha percibido el Agente
durante un tiempo. Se guarda
en Memoria.
4. ENTORNO
DE TRABAJO
PROPIEDADES
REAS
AGENTE INTELIGENTE
FUNCION
AGENTE
PROGRAMA
AGENTE
RACIONALID
AD
Cantidad de
Agentes
Observación
Propiedades
REAS
Elegir una
acción a
partir de un
mapeado de
percepciones
.
Es la capacidad de
tomar decisiones
óptimas...
Implementac
ión completa
sobre una
arquitectura
de la
Función
Agente
MEDIO
AMBIENTE
ENTORNO
AGEN
TE
SENSOR
ES
ACTUADO
RES
PERCEPCIO
NES
ACCIONES
APRENDIZAJE
Exploración
Autonomía
5. PROPIEDADES
DEL
ENTORNO
DE
TRABAJO
Parcialmente
Observable
Es cuando el
agente tiene la
posibilidad de
tener una
visión
completa de
los
aspectos princ
ipales donde
está
trabajando. Y
es
Parcialmente
observable
cuando se
cuenta con
baja
existencias de
sensores es
decir no se
puede observar
La propiedad
determinista,
el resultado es
predecible y
depende
únicamente
del estado
actual y la
acción del
agente.
La propiedad
estocástica el
mismo estado
y acción
pueden dar
lugar a
diferentes
resultados, y
el agente
debe poder
manejar esta
incertidumbre
para tomar
decisiones
va a realizar
un agente no
tiene ninguna
relación con la
que ha
realizado
posteriormente
, es decir esta
no depende de
la otra. En los
entornos
secuenciales
que en si son
secuencias de
pasos, se tiene
que tener
cuidado ya que
esta si están
estrechamente
relacionadas,
porque la
decisión que se
tome en un
momento
determinado
Observable
Es cuando el
agente tiene
la posibilidad
de tener una
visión
completa de
los
aspectos prin
cipales donde
está
trabajando. Y
es
Parcialmente
observable
cuando se
cuenta con
baja
existencias de
sensores es
decir no se
puede
observar en
Discreto vs.
Continuo
La propiedad
discreta en un
entorno de
trabajo
significa que
el espacio de
estados y
acciones es
discreto o
contable, a
diferencia de
un espacio
continuo. Esto
significa que
el número de
estados y
acciones está
bien definido
y es finito.
Estático vs.
Dinámico
Cuando las
acciones que
realiza el
agente no
cambian,
entonces el
medio es
estático por
ejemplo los
crucigramas
son estáticos.
En cambio
dinámico es lo
contrario es
cuando las
acciones
pueden ser
diferentes.
6. ENTORNO DE TRABAJO
R E A S
Medidas de
Rendimiento
Entorno Actuadores Sensores
• Seguro
• Rápido
• Legal
• Viaje
Confortable
• Maximización
del beneficio
• Carreteras
• Otro tráfico
• Peatones
• Clientes
• Semáforo
• Dirección
• Acelerador
• Bocina / Corneta
• Freno
• Visualizador
• Cámaras
• Sónar
• Velocímetro
• GPS
• Tacómetro
• Visualizador de
la Aceleración
• Sensores del
Moor
Agente: Taxista Robot
7. ENTORNO DE TRABAJO
Agente: Robot juega futbol
R E A S
Medidas de
Rendimiento
Entorno Actuadores Sensores
1 Número de goles
marcados
2.Número de pases
exitosos
3. Porcentaje de
posesión del balón
4. Distancia
recorrida sin perder
la posesión
5. Velocidad media
6. Número de faltas
cometidas 7.
Número de fueras
de juego
8. Tasa de
conversión de
objetivos
9. Tiempo
1 El campo
de fútbol,
incluyendo
el balón,
las
porterías y
otros
elementos
del campo.
2 Las
reglas y
regulacion
es del
fútbol,
como los
fueras de
juego, las
faltas
1 Ruedas o
motores para el
movimiento y la
dirección
2. Pinzas o
manipuladores
para el control
de la pelota
3. Servos para
ajustar la
altura, la
orientación y el
movimiento del
robot
4. Dispositivos
de
comunicación
para la
1. Cámaras o sensores
de visión para detectar
el balón, las porterías,
las líneas y otros robots
2. Acelerómetros y
giroscopios para medir
la aceleración, la
orientación y el
movimiento
3. Sensores de fuerza y
torque para medir las
interacciones físicas con
la pelota y otros objetos
4. Sensores de
proximidad para
detectar robots u
obstáculos cercanos
5. GPS o sensores de
8. APRENDIZAJE
El Agente Racional no solo recopile
información, sino, que aprenda lo máximo
posible de lo que perciba para poder
maximixar el rendimiento (memoria).
EXPLORACION: Recopilación de la
información, realizando acciones con
intención de modificar percepciones
futuras y memorizando el resultado de
cada acción.
AUTONOMIA: AR debe aprender todo para
compensar la falta de conocimiento que
posee
9. Los criterios que determinan el
éxito del comportamienro del
Agente. Est
Agente genera una secuencia de
acciones de acuerdo a las
percepciones recibidas
Si la secuencia es la deseada , entonces
el Agente habrá actuado correctamente
La medida de rendimeinto que defina el
criterio de éxito
El conocimiento acumulado del medio en el
que habita el agente
Las acciones que el agente lleve a cabo
Por cada secuencia de percepciones , el agente
racional emprende la accion que maximice su
medida de rendimiento.
1) por las evidencias aportadas por la secuencia
de percepciones.
2) El conocimiento almacenado del agente.
MEDIDAS DE
RENDIMIENTO
RACIONALIDAD:: cada secuencia
de percepciones , se selecciona la
acción que supuestamente
maximice el rendimiento esperado.
AGENTE
RACIONAL
RENTABILI
DAD
La secuencia de percepciones del agente
hasta el momento