SlideShare una empresa de Scribd logo
1 de 65
APRENDIZAJE
Carolina Guillén Romero
Enriqueta Sánchez Blázquez
Mª Ángeles Serna Moreno
APRENDIZAJE
• APRENDIZAJE ANIMAL
– Componentes:
• Habituación.
• Aprendizaje asociativo.
• Impronta.
• Imitación.
APRENDIZAJE
• APRENDIZAJE AUTOMÁTICO
– Tipos:
• Deductivo
– Componentes:
» Resolución de problemas.
» Análisis de la traza.
» Filtrado.
» Generalización.
» Construir nueva información.
» Incorporar.
APRENDIZAJE
• APRENDIZAJE AUTOMÁTICO
– Tipos:
• Inductivo
– Adquisición de componentes (supervisado).
– Por observación (no supervisado).
APRENDIZAJE
• APRENDIZAJE AUTOMÁTICO
– Tipos:
• Por analogía
– Modelo unificado de analogía.
– Analogía transformacional.
• Algoritmo genético
• Conexionista
• Multiestrategia
APRENDIZAJE
• APOYOS AL APRENDIZAJE
– Aprendizaje supervisado
– Aprendizaje no supervisado
– Aprendizaje con refuerzo de tablas
• Inmediato.
• Retardado.
1 Introducción
• Hay una corriente que dice que sin aprendizaje no hay
inteligencia, entonces los S.E. no son inteligentes.
• Wiener:“Un sistema organizado que aprende es aquel que recibe
una señal de entrada y la transforma en una de salida de acuerdo con
algún principio de organización”.
• “Si tal principio esta sujeto a un criterio de validez de funcionamiento
(decir si funciona bien o mal), hay un objetivo de funcionamiento que
permite ver la evolución del sistema. Si el método de transformación
se ajusta a fin de que tienda a mejorar el funcionamiento del sistema
de acuerdo con ese criterio. Se dice que el sistema aprende”.
2 Aprendizaje animal (I)
• Se entiende como un proceso adaptativo
que cumple las funciones de wiener,
aprendemos para ajustarnos al medio.
• Para que se produzca aprendizaje animal se
entiende que debe de perdurar en la
memoria un cierto tiempo
2 Aprendizaje animal (II)
• Es también difícil enunciar una definición,
así que se definen una serie de
características:
• Habituación
• Aprendizaje asociativo
• Impronta
• Imitación
Habituación:
• El sistema aprende a no prestar atención de
ciertos inputs y nos habituamos a ello y no
lo consideramos importante. Es muy
complicado en sistemas artificiales decidir
cuales aspectos son importantes y hemos de
prestarles, atención.
Aprendizaje asociativo
Aprenden asociando elementos que llegan a
estar asociados (paulov: perro, comida y
campanilla). Hay un aprendizaje de este
modo que se llama latente: el aprender
habilita mayor capacidad de aprender.
Impronta
Durante un periodo de, tiempo de su vida todo
lo que el ser ve lo sigue como a una madre.
No existe dentro de la inteligencia artificial.
En las primeras fases de la vida la impronta
es más fuerte que en la fases posteriores.
Imitación:
• Importante en sistemas biológicos. Consiste
en imitar el comportamiento de otro ser. No
existe dentro de sistemas artificiales.
2 Aprendizaje automático
(artificial)(I)
• Tipos de aprendizaje automático:
– Deductivo: mediante procesos de inferencia
deductiva aplicando a hechos reglas conocidas.
Necesita conocimientos previos. Ejemplo: hay
colillas -> han fumado.
2 Aprendizaje automático
(artificial)(II)
• Tipos de aprendizaje automático:
– Inductivo: consiste en inducir información de una
concepto a partir de un conjunto de cosas en concreto.
No requiere información previa del dominio. Ejemplo:
ese gato tiene 4 patas -> todos los gatos tienen 4 patas.
Si veo un caso supongo que todos los casos son iguales
hasta que encuentre una contradicción que me obligue a
remodelar las informaciones. Se realiza una estructura
del dominio a base de inducciones.
2 Aprendizaje automático
(artificial)(III)
• Tipos de aprendizaje automático:
– Analogía: aplicar un marco conocido a un
problema nuevo para resolver lo  aprendizaje
basado en casos.
– Algoritmos genéticos: se basa en la teoría de
Darwin, mediante mutaciones se mejora el
problema.
2 Aprendizaje automático
(artificial)(IV)
• Tipos de aprendizaje automático:
– Conexionista: es el que se usa en redes
neuronales. Algunos están implícitos en la red y
otros son externos.
– Multiestrategia: usa distintos tipos de
aprendizaje.
3 Apoyos al aprendizaje:
– Aprendizaje supervisado: durante el proceso de
aprendizaje existe un profesor o tutor que mostrando
ejemplos y resultado al sistema. En la clasificación de
elementos el profesor le enseña un elemento y el sistema
le dice a que clase pertenece. Por ejemplo
backpropagation.
– No supervisado: no hay un profesor que guié el
aprendizaje sino que se le muestra el dominio completo
y se le deja al sistema que decida como realizar esta
clasificación, solo hay ejemplos. Por ejemplo
contrapropagación.
– Con refuerzo: hay un supervisor que informa si los
resultados son correctos o no. No dice que clases hay.
APRENDIZAJE INDUCTIVO
APRENDIZAJE AUTOMÁTICO
1 Definición (I)Consiste en la adquisición de un nuevo conocimiento por la inferencia inductiva sobre
los datos por el entorno o el adiestrador.
Se suele caracterizar como una búsqueda heurística en la que tenemos los siguientes
elementos:
1. Estado inicial: datos de entrada y las descripciones simbólicas asociadas. La
descripción simbólica son descripciones de los elementos del dominio.
2. Estado de sucesores son descripciones simbólicas con mayor o menos número de
generalidad.
3. Operadores: serán diversas reglas de inducción de dos tipos:
a. Generalización: de descriptores concretos a descriptores mas generales.
b. Especialización: de una descripción mas general a una mas concreta.
4. Estado final: va a ser una descripción simbólica con las siguientes características:
a. Implica los datos de entrada.
b. Satisface los requerimientos de1 dominio.
c. Es suficientemente satisfactoria.
Inducir es suponer que lo que vemos es siempre así: si vemos que un gato tiene 4 patas,
todos los gatos tienen 4 patas.
1 Definición (II)
Las reglas de generalización pueden ser:
Reglas de selección: va a modificar el conocimiento obtenido. Tenemos los siguientes.
– Supresión de conjugados eliminando un elemento de la conjunción para,
obtener un descriptor mas general. Por ejemplo: los latinos son simpáticos y
bajitos -> los latinos son bajitos.
– Adicción de disyuntados: incluimos un descriptor más como una disyunción y
obtenemos una expresión mas general. Ejemplo: hay un fantasma bajo la cama
-> hay un fantasma bajo la cama o en el armario.
– Cambio de constantes por variables. Por ejemplo: la hormiga atómica lleva
casco -> la hormiga X lleva casco.
Reglas constructivas: va a añadir nuevo conocimiento (nuevos descriptores).
– Adiciones cuantitativas; por ejemplo: cosa lisa y negra -> cosa lisa, negra y
con tres picos
– Detección de dependencias. Por ejemplo la serie: (3,6),(4,8),(5,10) seria dos
números entre paréntesis separados por una coma donde uno es la mitad del
otro.
– Lo que hacemos es buscar un descriptor que mejor identifique a cada clase para
hacer una clasificación eficiente. Para obtener buenos descriptores usamos los
operadores.
2 Tipos de aprendizaje inductivo (I)
Hay fundamentalmente dos tipos:
• Adquisición de conceptos (aprendizaje inductivo
supervisado). Contamos con una serie de
elementos ya clasificados y sabemos a que clase
pertenece cada elemento. Nuestro objetivo es
obtener un descriptor apropiado de cada clase.
• Por observación (no supervisado). Tenemos todo
el dominio y hemos de clasificar los elementos de
nuestro sistema.
2 Tipos de aprendizaje inductivo (II)
Método de Hayes-Roth (supervisado)
Intenta las generalizaciones conjuntivas más específicas a partir de un
conjunto de afirmaciones positivas, a ese conjunto se le llama "maximal
abstraction" o "inferencial matches".
• Ejemplo:
- Case Frame (elementos): El, E2 Y E3.
- Case labell (propiedades): sombreado, liso, grande, pequeño....
- Parameters (partes): El esta formado por a, b y c.
2 Tipos de aprendizaje inductivo (III)
Método de Hayes-Roth. Ejemplo
Buscamos un descriptor para los tres casos:
• Paso 1: el primer elemento de entrada configura el primer conjunto de
generalizaciones conjuntivas de la clase que llamaremos G1. En el
ejemplo Gl=E1.
• Paso 2: Para un nuevo elemento de entrada se consigue un nuevo
conjunto de generalizaciones M que se obtiene de un cotejamiento
parcial entre el nuevo elemento y la descripción de la clase.
• Paso 3: Cuando se han cotejado todos los elementos del conjunto de
entrada el conjunto de generalizaciones obtenido es la descripción de
la clase.
Solo podemos asegurar la falsedad no la veracidad.
2 Tipos de aprendizaje inductivo (IV)
Método de Hayes-Roth. Ejemplo
Cotejamiento parcial:
• A. Se cotejan todas las generalizaciones conjuntivas de todas las
formas posibles hasta obtener un conjunto M formado por todas las
afirmaciones procedentes de la correspondencia entre parámetros que
coincidan en ambos casos. Si tenemos 'b' en El que es sombreado y
redondo lo podemos asociar a 'e' y 'f' de E2.
• B. Seleccionamos un subconjunto de las correspondencias entre los
parámetros que se puedan vincular consistentemente. Una vinculación
es consistente cuando no vincula a un parámetro de una instancia con
varios parámetros de otra instancia. Si a/b entonces no puedo coger a/c
porque entonces no seria consistente.
2 Tipos de aprendizaje inductivo (V)
Método de Hayes-Roth. Ejemplo
Cotejamiento parcial:
2 Tipos de aprendizaje inductivo (VI)
Por observación (no supervisado):
Es más ambicioso y tiene dos puntos de vista: uno psicológico y otro
computacional.
• Componente psicológica:
A. Enfoque clásico: se basa en que todas las instancias de una categoría
comparten un conjunto de características comunes. Desventajas si
intentamos abordar esto computacionalmente no siempre es posible
encontrar una característica común que caracteriza la clase. La
imposibilidad de definir grados de pertenencia a un conjunto. Existen
asignaciones ambiguas.
B. Enfoque probabilístico se asocia un grado de pertenencia a cada clase. Para
ello se define un prototipo de la clase y luego mediríamos la distancia de
nuestro elemento a la clase. Desventajas:
- Habla independientemente del contexto.
- Es difícil cuantificar la distancia al prototipo, es complicado
establecer la métrica.
C. Categorización basado en teorías hay información difícil de inyectar en l
a clase y hemos de encajar la en el dominio.
2 Tipos de aprendizaje inductivo (VII)
Por observación (no supervisado):
• Componente computacional: el objetivo es conseguir agrupar los elementos en clases, y
conseguir las características que definen cada clase.
A. Taxonomía numérica: son los primeros intentos de aprendizaje automático no
supervisado mediante inducción y casi todos están basados en algún tipo de
métrica.
Distancia de Minkowski: d(i,k)=(Σnj=i (|xij –xkj)|п )½, donde si п es 1 se trata de
la distancia euclídea y si vale 2 es la distancia hamming. Cada caso es un
vector de reales de n números (más bien un punto). Es esquema de representación
es un vector de n coordenadas. Para clasificar las clases los vectores hay dos tipos de
algoritmos:
1. Algoritmos aglomerativos en principio suponen que cada elemento
es una clase y luego se van uniendo hasta conseguir el número
deseado.
2. Algoritmos divisores consideran que todos los vectores pertenecen a
la misma clase y luego los van dividiendo en subclases.
Objetivos:
- La similitud entre elementos de la misma clase debe ser próxima.
- La diferencia entre elementos de clases distintas debe ser máxima.
El problema es cuando parar (de juntar o dividir).
2 Tipos de aprendizaje inductivo (VIII)
Por observación (no supervisado):
• Componente computacional:
B. Aprendizaje automático: es una mejora de la taxonomía automática, donde se intenta:
- Resolver el problema de cuando parar.
- Los parámetros numéricos pueden no expresar bien el dominio.
Intenta encontrar otras alternativas.
1. Agrupación conceptual: A y B van a ser casi siempre en la misma clase, sin embargo
hay un concepto más allá de la distancia, unos puntos forman un circulo y otros un
triángulo. Habría que introducir los conceptos círculo y triángulo.
2. Cluster: a partir de una serie de semillas van creciendo (en forma de estrella)
3. Teoría de Witt: Se basa en teorías de la información.
4. Autoclass: Teorías de Bayes.
5. Formación de conceptos: tiene mecanismos que permiten realizar el
aprendizaje de forma incremental.
A B
APRENDIZAJE DEDUCTIVO
(APRENDIZAJE BASADO EN EXPLICACIONES)
APRENDIZAJE AUTOMÁTICO
1 Deductivo: EBL (explanation
based learning).(I)
• El aprendizaje inductivo era el más utilizado, pero
tiene un problema: el aprendizaje inductivo no
preserva la veracidad pero preserva la falsedad.
- No preserva la veracidad: por inducción no se
puede afirmar algo que hemos observado.
- Preserva la falsedad: podemos saber que algo es
falso.
1 Deductivo: EBL (explanation
based learning).(II)
• La deducción permite preservar la veracidad ya
que hay conocimiento del dominio que respalda
las afirmaciones. Sobre el conocimiento obtenido
inductivamente podemos deducir.
La segunda diferencia es que el aprendizaje
inductivo necesita muchos ejemplos para obtener
información del dominio. En el deductivo nos vale
con un ejemplo pero necesitamos más
conocimiento del dominio.
1 Deductivo: EBL (explanation
based learning).(III)
• La tercera diferencia es que el método
deductivo no incorpora nuevo
conocimiento, tan solo consigue explicar
mejor (concretar) el conocimiento existente.
Definiciones:
• Teoría del dominio (o conocimiento de respaldo) es la
información específica del dominio que vamos a suponer
completa y consistente (en SBR es la base de
afirmaciones).
• Concepto objetivo: es el concepto del que el método EBL
debe determinar una definición efectiva y operacional. Se
dice que es efectiva porque lleva a la solución rápidamente
y es operacional porque se puede hacer en la máquina.
• Ejemplo es una instancia concreta de un objetivo
• Nueva teoría del dominio es una teoría del dominio
modificada.
Componentes
Componentes: (I)
• 1. Resolución del problema: utilizar el dominio y el
ejemplo para 1Iegar al objetivo.
• 2. Análisis de la traza: analizamos la solución para
conseguir obtener una explicación. Usamos criterios:
– A. Criterio de relevancia. va a ser realmente aquello
que sea importante para abordar problemas futuros, en
una traza va a ser realmente aquella información que
forme parte en el camino de llegar a la solución.
– B. Criterio de operatividad: son aquellas reglas que se
activan directamente.
Componentes: (II)
• 3. Filtrado: filtra la información de la traza para llegar
a la explicación. Coge lo que es relevante y operativo. Se
obtiene una explicación.
• 4. Generalización: consiste en sustituir las constantes
por variables de forma que la expresión siga siendo válida.
El método más usado es el algoritmo de regresión de
objetivos. Regresionar una fórmula f a través de una regla r
consiste en determinar las condiciones necesarias y
suficientes bajo las cuales puede usarse la regla r para
obtener f.
Componentes: (III)
• 5. Construir nueva información: La información que
construimos puede ser:
• Reglas de dominio que expresaran nuevas definiciones de
conceptos en las que la parte izquierda de la regla serán las
combinaciones necesarias y suficientes del árbol de
explicación generalizado mientras que la raíz del mismo será la
parte derecha de la regla.
• Reglas de control que se construyen de forma similar.
• 6. Incorporar: esas nuevas reglas hay que incorporarlas
a la base de conocimiento, pero a veces se obtienen
demasiadas reglas para introducir en nuestro sistema. Hay
que llegar a una solución de compromiso (velocidad de
inferencia o base de afirmaciones mayor).
Problemas del EBL.(I)
• Hemos supuesto que la base de
conocimiento es completa y es consistente
pero a veces la base que tenemos no es así.
Por ello se producen dos problemas:
• 1 Reformulación de la teoría: es provocado por el
aumento de volumen de la información o bien por
el aumento de la complejidad (reglas más complejas
en la base de conocimiento .Y hay que determinar
que dejamos y que eliminamos. Así que tenemos
dos soluciones: o almacenar siempre o bien no
almacenar nunca.
Problemas del EBL.(II)
• 2 Revisión de la teoría: la información obtenida no
es adecuada porque:
» La teoría es incompleta.
» La teoría es incorrecta.
» La teoría es inconsistente: se puede llegar a
contradicciones.
» La Teoría es intratable: por su volumen son difíciles
de abordar.
APRENDIZAJE POR ANALOGÍA
APRENDIZAJE AUTOMÁTICO
Introducción
• Si dos situaciones son iguales en algunos de sus
aspectos, lo normal es que puedan serlo en otras.
– Ejemplo:
• Un circuito y un sistema con una fórmula que define
su comportamiento similar. Analogía entre las dos
situaciones.
Se usa cuando se conoce el comportamiento de
un sistema, para conocer como se comporta un
sistema análogo.
Definiciones.
• Problema base: situación conocida de ante
mano.
• Dominio base: lo que se conoce de él.
• Problema objetivo: aplicamos lo conocido a
la nueva situación.
• Dominio objetivo: conocimiento obtenido
de aplicar el problema objetivo junto con la
situación conocida.
Modelo unificado de analogía (I).
KEDAR-COBELL (1988)
• Fases:
– 1. Recuperación: Partiendo del problema
objetivo (dominio objetivo) buscamos un
problema base en el dominio base que tenga
similitudes significativas.
– 2. Elaboración: Define conocimiento del
problema base para poder aplicarlo en el
problema objetivo.
Modelo unificado de analogía (II).
KEDAR-COBELL (1988)
• Fases:
– 3. Mapeo: Trasladamos el conocimiento
desde el problema base hasta el objetivo.
– 4. Justificación: Comprobamos si lo que
sabemos es aplicable y funciona en la función
objetivo.
– 5. Aprendizaje: Consiste en almacenar el
conocimiento obtenido aprendido, en el
conocimiento objetivo
Analogía transformacional.
CARBONELL (1983)
Plantea un espacio llamado ‘Tespacio’ y
decide que hay varios problemas que
pueden manejarse con el Tespacio, de
manera que, se puede asignar a distintos
problemas usando Toperadores.
APRENDIZAJE POR REFUERZO DE
TABLAS
APOYOS AL APRENDIZAJE
Introducción (I).
• Aprendizaje por refuerzo de tablas
consiste en tener una serie de parámetros y
según los resultados de la funcionalidad del
sistema ir modificando los parámetros.
Introducción (II).
• TIPOS DE APRENDIZAJE POR REFUERZO:
– Inmediato: lleva una señal de refuerzo tras cada
actuación del sistema y a cado paso tendrá una señal
de refuerzo que indicará si va bien o mal.
– Retardado: se pondera exclusivamente la acción del
sistema.
• Es más fácil manejar el retardado que el inmediato.
Introducción (III).
•CLASIFICACIÓN:
1. Refuerzo en tablas.
2. Redes neuronales.
3. Aprendizaje estímulo-acción
Aprendizaje por refuerzo de tablas (I).
• El aprendizaje por refuerzo en tablas consiste en
gestionar el conocimiento mediante tablas de
valores que se van actualizando atendiendo al valor
del refuerzo. Son sólo aceptables por problemas
aceptables por problemas de Markov.
• Problemas modernizable por cadenas de Markov
sólo dependen del estado en el que está el sistema y
no depende de cómo ha llegado a ese estado.
Aprendizaje por refuerzo de tablas (II).
• TIPOS DE REFUERZO:
– Refuerzo inmediato.
– Refuerzo retardado.
Aprendizaje por refuerzo de tablas (III).
• Refuerzo inmediato: el algoritmo normal (es el
que se conoce como algoritmo lineal de premio
castigo, LRP) constituye una tabla con todos los
posibles estados del sistema y todas las posibles
acciones.
El algoritmo lineal de refuerzo inacción,
solamente se castiga, cuando lo haces bien no
modifica los pesos y cuando lo hace mal lo
castiga.
Aprendizaje por refuerzo de tablas (IV).
• ALGORITMO LINEAL DE PREMIO Y CASTIGO
E1_A1 E1,A2 E1,A3 E1, E2_A1 E2,A2 E2, A3 E2,...
Si se está en E1 y se pasa a E2, si es bueno se premia y si no se castiga.
Aprendizaje por refuerzo de tablas (V).
• Refuerzo retardado: suele ser más
complejo y menos autónomo. Según se ha
llegado al final se valora si se ha hecho bien
o mal.
Es más difícil detectar el fracaso en los
parámetros del sistema.
Páginas de interés
• Aprendizaje en Inteligencia Artificial
• Aprendizaje (definición y tipos)
• Resumen Aprendizaje y Memoria
• Inteligencia en Redes de Comunicaciones (Aprendizaje)
• Aprendizaje definición y tipos en wikipedia
• Aprendizaje Automático:Aprendizaje de Conceptos y Espacio de Versiones.
• Aprendizaje Deductivo (Basado en la Explicación)
• Introduction to Machine Learning
• Machine Learning and Natural Language Processing
• Aprendizaje automático
Aprendizaje inductivo
• Aprendizaje por observación (ppt)
• Introducción y descripción de los algoritmos de A
• Aprendizaje Inductivo
• Aprendizaje Automático: Aprendizaje de Concep
pdf)
• Aprendizaje Inductivo
Aprendizaje deductivo
• Aprendizaje Deductivo (
Basado en la Explicación)
• Articulo: Sugerencias para la enseñanza tomando
• Aprendizaje automático. Técnicas basadas en EBL
• DeJong y Mooney (1986), definieron el
Aprendizaje Basado en la Explicación, EBL
Aprendizaje por analogía
• Aprendizaje por analogía
• Aprendizaje por analogía
• Introducción al aprendizaje de la maquina: sistem
Aprendizaje basado en casos
• Repositorio general sobre AI-CBR
• Herramientas AI-CBR (ver académicas)
• Documentación y código sobre el conocido sistema SWALE
• Recursos CBR (AAAI)
• INRECA: proyecto europeo del que se deriva CASUEL y CBR-W
• Planificación y CBR (Veloso) / Planning and CBR
• Agentes y CBR (CSIC)
• Gente relacionada con ML y CBR / ML and CBR people
• Conferencia Internacional de CBR'03
Bibliografía
• Mitchell (1997): “Machine Learning”. McGraw-Hill.
• DA Norman (1988 ) “El aprendizaje y la memoria”. Alianza Editorial
• LÓPEZ, J.A. (1990). "Inteligencia Artificial en Educación". Apuntes de Educación y
NN.TT., nº 38" Madrid: Anaya
• Gerhard Weib, Sandip Sen (1996) “Adaptation and learning in multi-agent systems ed”.
• CASACUBIERTA, F. Y VIDAL, E. (1987 a) “Reconocimiento automático del habla”.
Marcombo.
• D. Borrajo, J.G. Boticario y P. Isasi. (“saldrá publicado” en abril 2006).“Aprendizaje
Automático.” Editorial Sanz y Torres
• A. Moreno Ribas y otros (1994). “Aprendizaje Automático.” Ediciones UPC
(Universidad Politécnica de Cataluña)
• Carbonell, J.G., Michalski, R.S., and Mitchell, T.M., "Machine learning: A historical and
methodological analysis". AI Magazine, Fall (1983) 69-79.
• Chandrasekaran, B., Johnson, T.R., and Smith, J.W., "Task-structure analysis for
knowledge modeling". Communications of the ACM, 35 (1992) 124-137.
Artículos destacados
• A Learning Algorithm For Neural Network Ensembles
http://ltcs.uned.es:8080/aepia/Uploads/12/128.pdf
• Presentacion Monografia: Sistemas Inteligentes en el ambito de la
Educacion
http://ltcs.uned.es:8080/aepia/Uploads/12/131.pdf
• Apredizaje de la similitud entre casos con valores discretos y
numéricos(Premio Accésit Jose Cuena)
http://tornado.dia.fi.upm.es/caepia/numeros9/luaces.ps.gz
• ¿Aprendizaje o Aprendizajes?
http://contexto-educativo.com.ar/2001/2/nota-02.htm
Artículos destacados (II)
• Un método deductivo para la enseñanza
http://www.edscuola.it/archivio/software/bit/course/Revist
aEnsenanza.pdf
• Aprendizaje Deductivo, Inductivo, y Abductivo con Algoritmos Genéticos
http://www.inf.udec.cl/revista/ediciones/edicion10/apr-ag.pdf
• Análisis y síntesis de la señal acústica
http://cvc.cervantes.es/obref/congresos/sevilla/tecnologias/mesaredon_
casacuberta.htm
• Aprendizaje en inteligencia artificial
http://www.sindominio.net/~apm/articulos/IAIC/aprendizaje/aprendiza
je.pdf
Aplicaciones
• Sistema de tutoría inteligente adaptativo considerando
estilos de aprendizaje
http://eia.udg.es/~clarenes/docs/ribie-udg-2002.pdf.
• Sistema de Reconocimiento del habla
http://es.wikipedia.org/wiki/Reconocimiento_del_habla
• Programa que aprende a jugar al Backgammon
entrenándose contra sí mismo mediante aprendizaje con
refuerzo. El programa logró un nivel de juego comparable
al de los expertos humanos.
“Temporal difference learning and TD-Gammon”
(http://www.research.ibm.com/massive/tdl.html)
Aplicaciones (II)
• Machine Learning for Distributed Traffic Control
http://www.isle.org/%7Elangley/traffic.html
• How can computers learn to decode a person's
mental state from their brain activity?
http://www.cs.cmu.edu/afs/cs/project/theo-
73/www/index.html

Más contenido relacionado

Similar a Trabajo aprendizaje

Similar a Trabajo aprendizaje (20)

Charla1
Charla1Charla1
Charla1
 
Charla Maestra
Charla MaestraCharla Maestra
Charla Maestra
 
Diapositiva Maestra
Diapositiva MaestraDiapositiva Maestra
Diapositiva Maestra
 
Charla Maestra
Charla MaestraCharla Maestra
Charla Maestra
 
Charla Maestra
Charla MaestraCharla Maestra
Charla Maestra
 
Diapositiva Maestra
Diapositiva MaestraDiapositiva Maestra
Diapositiva Maestra
 
AnimacióN Y TransicióN
AnimacióN Y TransicióNAnimacióN Y TransicióN
AnimacióN Y TransicióN
 
Conceptos basicos
Conceptos basicosConceptos basicos
Conceptos basicos
 
metodologia de la investigacion... Tipos-de-Metodos
metodologia de la investigacion...   Tipos-de-Metodosmetodologia de la investigacion...   Tipos-de-Metodos
metodologia de la investigacion... Tipos-de-Metodos
 
Vistas De Aprendizaje
Vistas De AprendizajeVistas De Aprendizaje
Vistas De Aprendizaje
 
Tp integrador inst y control
Tp integrador inst y controlTp integrador inst y control
Tp integrador inst y control
 
Unidad ii
Unidad iiUnidad ii
Unidad ii
 
Aplicaciones Difusas: Machine learning y heuristicas
Aplicaciones Difusas: Machine learning y heuristicasAplicaciones Difusas: Machine learning y heuristicas
Aplicaciones Difusas: Machine learning y heuristicas
 
Cierres
CierresCierres
Cierres
 
F.u. 2 6
F.u. 2 6F.u. 2 6
F.u. 2 6
 
F.u. 2 6
F.u. 2 6F.u. 2 6
F.u. 2 6
 
001 solo taxonomy from John Biggs and Kevin Collis
001 solo taxonomy from John Biggs and Kevin Collis001 solo taxonomy from John Biggs and Kevin Collis
001 solo taxonomy from John Biggs and Kevin Collis
 
Objetivos bloom
Objetivos bloomObjetivos bloom
Objetivos bloom
 
Guia diseno objetivos
Guia diseno objetivosGuia diseno objetivos
Guia diseno objetivos
 
Clasificación del método de enseñanza.docx
Clasificación del método de enseñanza.docxClasificación del método de enseñanza.docx
Clasificación del método de enseñanza.docx
 

Último

actividades comprensión lectora para 3° grado
actividades comprensión lectora para 3° gradoactividades comprensión lectora para 3° grado
actividades comprensión lectora para 3° gradoJosDanielEstradaHern
 
Programacion Anual Matemática4 MPG 2024 Ccesa007.pdf
Programacion Anual Matemática4    MPG 2024  Ccesa007.pdfProgramacion Anual Matemática4    MPG 2024  Ccesa007.pdf
Programacion Anual Matemática4 MPG 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...JAVIER SOLIS NOYOLA
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxYadi Campos
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptxFelicitasAsuncionDia
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfPaolaRopero2
 
Valoración Crítica de EEEM Feco2023 FFUCV
Valoración Crítica de EEEM Feco2023 FFUCVValoración Crítica de EEEM Feco2023 FFUCV
Valoración Crítica de EEEM Feco2023 FFUCVGiustinoAdesso1
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptxdeimerhdz21
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
BIOMETANO SÍ, PERO NO ASÍ. LA NUEVA BURBUJA ENERGÉTICA
BIOMETANO SÍ, PERO NO ASÍ. LA NUEVA BURBUJA ENERGÉTICABIOMETANO SÍ, PERO NO ASÍ. LA NUEVA BURBUJA ENERGÉTICA
BIOMETANO SÍ, PERO NO ASÍ. LA NUEVA BURBUJA ENERGÉTICAÁngel Encinas
 
Estrategias de enseñanza-aprendizaje virtual.pptx
Estrategias de enseñanza-aprendizaje virtual.pptxEstrategias de enseñanza-aprendizaje virtual.pptx
Estrategias de enseñanza-aprendizaje virtual.pptxdkmeza
 
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Alejandrino Halire Ccahuana
 
ORGANIZACIÓN SOCIAL INCA EN EL TAHUANTINSUYO.pptx
ORGANIZACIÓN SOCIAL INCA EN EL TAHUANTINSUYO.pptxORGANIZACIÓN SOCIAL INCA EN EL TAHUANTINSUYO.pptx
ORGANIZACIÓN SOCIAL INCA EN EL TAHUANTINSUYO.pptxnandoapperscabanilla
 
Imperialismo informal en Europa y el imperio
Imperialismo informal en Europa y el imperioImperialismo informal en Europa y el imperio
Imperialismo informal en Europa y el imperiomiralbaipiales2016
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 

Último (20)

actividades comprensión lectora para 3° grado
actividades comprensión lectora para 3° gradoactividades comprensión lectora para 3° grado
actividades comprensión lectora para 3° grado
 
Programacion Anual Matemática4 MPG 2024 Ccesa007.pdf
Programacion Anual Matemática4    MPG 2024  Ccesa007.pdfProgramacion Anual Matemática4    MPG 2024  Ccesa007.pdf
Programacion Anual Matemática4 MPG 2024 Ccesa007.pdf
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptx
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
 
Valoración Crítica de EEEM Feco2023 FFUCV
Valoración Crítica de EEEM Feco2023 FFUCVValoración Crítica de EEEM Feco2023 FFUCV
Valoración Crítica de EEEM Feco2023 FFUCV
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptx
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
BIOMETANO SÍ, PERO NO ASÍ. LA NUEVA BURBUJA ENERGÉTICA
BIOMETANO SÍ, PERO NO ASÍ. LA NUEVA BURBUJA ENERGÉTICABIOMETANO SÍ, PERO NO ASÍ. LA NUEVA BURBUJA ENERGÉTICA
BIOMETANO SÍ, PERO NO ASÍ. LA NUEVA BURBUJA ENERGÉTICA
 
Estrategias de enseñanza-aprendizaje virtual.pptx
Estrategias de enseñanza-aprendizaje virtual.pptxEstrategias de enseñanza-aprendizaje virtual.pptx
Estrategias de enseñanza-aprendizaje virtual.pptx
 
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
 
Unidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la InvestigaciónUnidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la Investigación
 
ORGANIZACIÓN SOCIAL INCA EN EL TAHUANTINSUYO.pptx
ORGANIZACIÓN SOCIAL INCA EN EL TAHUANTINSUYO.pptxORGANIZACIÓN SOCIAL INCA EN EL TAHUANTINSUYO.pptx
ORGANIZACIÓN SOCIAL INCA EN EL TAHUANTINSUYO.pptx
 
Imperialismo informal en Europa y el imperio
Imperialismo informal en Europa y el imperioImperialismo informal en Europa y el imperio
Imperialismo informal en Europa y el imperio
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 

Trabajo aprendizaje

  • 1. APRENDIZAJE Carolina Guillén Romero Enriqueta Sánchez Blázquez Mª Ángeles Serna Moreno
  • 2. APRENDIZAJE • APRENDIZAJE ANIMAL – Componentes: • Habituación. • Aprendizaje asociativo. • Impronta. • Imitación.
  • 3. APRENDIZAJE • APRENDIZAJE AUTOMÁTICO – Tipos: • Deductivo – Componentes: » Resolución de problemas. » Análisis de la traza. » Filtrado. » Generalización. » Construir nueva información. » Incorporar.
  • 4. APRENDIZAJE • APRENDIZAJE AUTOMÁTICO – Tipos: • Inductivo – Adquisición de componentes (supervisado). – Por observación (no supervisado).
  • 5. APRENDIZAJE • APRENDIZAJE AUTOMÁTICO – Tipos: • Por analogía – Modelo unificado de analogía. – Analogía transformacional. • Algoritmo genético • Conexionista • Multiestrategia
  • 6. APRENDIZAJE • APOYOS AL APRENDIZAJE – Aprendizaje supervisado – Aprendizaje no supervisado – Aprendizaje con refuerzo de tablas • Inmediato. • Retardado.
  • 7. 1 Introducción • Hay una corriente que dice que sin aprendizaje no hay inteligencia, entonces los S.E. no son inteligentes. • Wiener:“Un sistema organizado que aprende es aquel que recibe una señal de entrada y la transforma en una de salida de acuerdo con algún principio de organización”. • “Si tal principio esta sujeto a un criterio de validez de funcionamiento (decir si funciona bien o mal), hay un objetivo de funcionamiento que permite ver la evolución del sistema. Si el método de transformación se ajusta a fin de que tienda a mejorar el funcionamiento del sistema de acuerdo con ese criterio. Se dice que el sistema aprende”.
  • 8. 2 Aprendizaje animal (I) • Se entiende como un proceso adaptativo que cumple las funciones de wiener, aprendemos para ajustarnos al medio. • Para que se produzca aprendizaje animal se entiende que debe de perdurar en la memoria un cierto tiempo
  • 9. 2 Aprendizaje animal (II) • Es también difícil enunciar una definición, así que se definen una serie de características: • Habituación • Aprendizaje asociativo • Impronta • Imitación
  • 10. Habituación: • El sistema aprende a no prestar atención de ciertos inputs y nos habituamos a ello y no lo consideramos importante. Es muy complicado en sistemas artificiales decidir cuales aspectos son importantes y hemos de prestarles, atención.
  • 11. Aprendizaje asociativo Aprenden asociando elementos que llegan a estar asociados (paulov: perro, comida y campanilla). Hay un aprendizaje de este modo que se llama latente: el aprender habilita mayor capacidad de aprender.
  • 12. Impronta Durante un periodo de, tiempo de su vida todo lo que el ser ve lo sigue como a una madre. No existe dentro de la inteligencia artificial. En las primeras fases de la vida la impronta es más fuerte que en la fases posteriores.
  • 13. Imitación: • Importante en sistemas biológicos. Consiste en imitar el comportamiento de otro ser. No existe dentro de sistemas artificiales.
  • 14. 2 Aprendizaje automático (artificial)(I) • Tipos de aprendizaje automático: – Deductivo: mediante procesos de inferencia deductiva aplicando a hechos reglas conocidas. Necesita conocimientos previos. Ejemplo: hay colillas -> han fumado.
  • 15. 2 Aprendizaje automático (artificial)(II) • Tipos de aprendizaje automático: – Inductivo: consiste en inducir información de una concepto a partir de un conjunto de cosas en concreto. No requiere información previa del dominio. Ejemplo: ese gato tiene 4 patas -> todos los gatos tienen 4 patas. Si veo un caso supongo que todos los casos son iguales hasta que encuentre una contradicción que me obligue a remodelar las informaciones. Se realiza una estructura del dominio a base de inducciones.
  • 16. 2 Aprendizaje automático (artificial)(III) • Tipos de aprendizaje automático: – Analogía: aplicar un marco conocido a un problema nuevo para resolver lo  aprendizaje basado en casos. – Algoritmos genéticos: se basa en la teoría de Darwin, mediante mutaciones se mejora el problema.
  • 17. 2 Aprendizaje automático (artificial)(IV) • Tipos de aprendizaje automático: – Conexionista: es el que se usa en redes neuronales. Algunos están implícitos en la red y otros son externos. – Multiestrategia: usa distintos tipos de aprendizaje.
  • 18. 3 Apoyos al aprendizaje: – Aprendizaje supervisado: durante el proceso de aprendizaje existe un profesor o tutor que mostrando ejemplos y resultado al sistema. En la clasificación de elementos el profesor le enseña un elemento y el sistema le dice a que clase pertenece. Por ejemplo backpropagation. – No supervisado: no hay un profesor que guié el aprendizaje sino que se le muestra el dominio completo y se le deja al sistema que decida como realizar esta clasificación, solo hay ejemplos. Por ejemplo contrapropagación. – Con refuerzo: hay un supervisor que informa si los resultados son correctos o no. No dice que clases hay.
  • 20. 1 Definición (I)Consiste en la adquisición de un nuevo conocimiento por la inferencia inductiva sobre los datos por el entorno o el adiestrador. Se suele caracterizar como una búsqueda heurística en la que tenemos los siguientes elementos: 1. Estado inicial: datos de entrada y las descripciones simbólicas asociadas. La descripción simbólica son descripciones de los elementos del dominio. 2. Estado de sucesores son descripciones simbólicas con mayor o menos número de generalidad. 3. Operadores: serán diversas reglas de inducción de dos tipos: a. Generalización: de descriptores concretos a descriptores mas generales. b. Especialización: de una descripción mas general a una mas concreta. 4. Estado final: va a ser una descripción simbólica con las siguientes características: a. Implica los datos de entrada. b. Satisface los requerimientos de1 dominio. c. Es suficientemente satisfactoria. Inducir es suponer que lo que vemos es siempre así: si vemos que un gato tiene 4 patas, todos los gatos tienen 4 patas.
  • 21. 1 Definición (II) Las reglas de generalización pueden ser: Reglas de selección: va a modificar el conocimiento obtenido. Tenemos los siguientes. – Supresión de conjugados eliminando un elemento de la conjunción para, obtener un descriptor mas general. Por ejemplo: los latinos son simpáticos y bajitos -> los latinos son bajitos. – Adicción de disyuntados: incluimos un descriptor más como una disyunción y obtenemos una expresión mas general. Ejemplo: hay un fantasma bajo la cama -> hay un fantasma bajo la cama o en el armario. – Cambio de constantes por variables. Por ejemplo: la hormiga atómica lleva casco -> la hormiga X lleva casco. Reglas constructivas: va a añadir nuevo conocimiento (nuevos descriptores). – Adiciones cuantitativas; por ejemplo: cosa lisa y negra -> cosa lisa, negra y con tres picos – Detección de dependencias. Por ejemplo la serie: (3,6),(4,8),(5,10) seria dos números entre paréntesis separados por una coma donde uno es la mitad del otro. – Lo que hacemos es buscar un descriptor que mejor identifique a cada clase para hacer una clasificación eficiente. Para obtener buenos descriptores usamos los operadores.
  • 22. 2 Tipos de aprendizaje inductivo (I) Hay fundamentalmente dos tipos: • Adquisición de conceptos (aprendizaje inductivo supervisado). Contamos con una serie de elementos ya clasificados y sabemos a que clase pertenece cada elemento. Nuestro objetivo es obtener un descriptor apropiado de cada clase. • Por observación (no supervisado). Tenemos todo el dominio y hemos de clasificar los elementos de nuestro sistema.
  • 23. 2 Tipos de aprendizaje inductivo (II) Método de Hayes-Roth (supervisado) Intenta las generalizaciones conjuntivas más específicas a partir de un conjunto de afirmaciones positivas, a ese conjunto se le llama "maximal abstraction" o "inferencial matches". • Ejemplo: - Case Frame (elementos): El, E2 Y E3. - Case labell (propiedades): sombreado, liso, grande, pequeño.... - Parameters (partes): El esta formado por a, b y c.
  • 24. 2 Tipos de aprendizaje inductivo (III) Método de Hayes-Roth. Ejemplo Buscamos un descriptor para los tres casos: • Paso 1: el primer elemento de entrada configura el primer conjunto de generalizaciones conjuntivas de la clase que llamaremos G1. En el ejemplo Gl=E1. • Paso 2: Para un nuevo elemento de entrada se consigue un nuevo conjunto de generalizaciones M que se obtiene de un cotejamiento parcial entre el nuevo elemento y la descripción de la clase. • Paso 3: Cuando se han cotejado todos los elementos del conjunto de entrada el conjunto de generalizaciones obtenido es la descripción de la clase. Solo podemos asegurar la falsedad no la veracidad.
  • 25. 2 Tipos de aprendizaje inductivo (IV) Método de Hayes-Roth. Ejemplo Cotejamiento parcial: • A. Se cotejan todas las generalizaciones conjuntivas de todas las formas posibles hasta obtener un conjunto M formado por todas las afirmaciones procedentes de la correspondencia entre parámetros que coincidan en ambos casos. Si tenemos 'b' en El que es sombreado y redondo lo podemos asociar a 'e' y 'f' de E2. • B. Seleccionamos un subconjunto de las correspondencias entre los parámetros que se puedan vincular consistentemente. Una vinculación es consistente cuando no vincula a un parámetro de una instancia con varios parámetros de otra instancia. Si a/b entonces no puedo coger a/c porque entonces no seria consistente.
  • 26. 2 Tipos de aprendizaje inductivo (V) Método de Hayes-Roth. Ejemplo Cotejamiento parcial:
  • 27. 2 Tipos de aprendizaje inductivo (VI) Por observación (no supervisado): Es más ambicioso y tiene dos puntos de vista: uno psicológico y otro computacional. • Componente psicológica: A. Enfoque clásico: se basa en que todas las instancias de una categoría comparten un conjunto de características comunes. Desventajas si intentamos abordar esto computacionalmente no siempre es posible encontrar una característica común que caracteriza la clase. La imposibilidad de definir grados de pertenencia a un conjunto. Existen asignaciones ambiguas. B. Enfoque probabilístico se asocia un grado de pertenencia a cada clase. Para ello se define un prototipo de la clase y luego mediríamos la distancia de nuestro elemento a la clase. Desventajas: - Habla independientemente del contexto. - Es difícil cuantificar la distancia al prototipo, es complicado establecer la métrica. C. Categorización basado en teorías hay información difícil de inyectar en l a clase y hemos de encajar la en el dominio.
  • 28. 2 Tipos de aprendizaje inductivo (VII) Por observación (no supervisado): • Componente computacional: el objetivo es conseguir agrupar los elementos en clases, y conseguir las características que definen cada clase. A. Taxonomía numérica: son los primeros intentos de aprendizaje automático no supervisado mediante inducción y casi todos están basados en algún tipo de métrica. Distancia de Minkowski: d(i,k)=(Σnj=i (|xij –xkj)|п )½, donde si п es 1 se trata de la distancia euclídea y si vale 2 es la distancia hamming. Cada caso es un vector de reales de n números (más bien un punto). Es esquema de representación es un vector de n coordenadas. Para clasificar las clases los vectores hay dos tipos de algoritmos: 1. Algoritmos aglomerativos en principio suponen que cada elemento es una clase y luego se van uniendo hasta conseguir el número deseado. 2. Algoritmos divisores consideran que todos los vectores pertenecen a la misma clase y luego los van dividiendo en subclases. Objetivos: - La similitud entre elementos de la misma clase debe ser próxima. - La diferencia entre elementos de clases distintas debe ser máxima. El problema es cuando parar (de juntar o dividir).
  • 29. 2 Tipos de aprendizaje inductivo (VIII) Por observación (no supervisado): • Componente computacional: B. Aprendizaje automático: es una mejora de la taxonomía automática, donde se intenta: - Resolver el problema de cuando parar. - Los parámetros numéricos pueden no expresar bien el dominio. Intenta encontrar otras alternativas. 1. Agrupación conceptual: A y B van a ser casi siempre en la misma clase, sin embargo hay un concepto más allá de la distancia, unos puntos forman un circulo y otros un triángulo. Habría que introducir los conceptos círculo y triángulo. 2. Cluster: a partir de una serie de semillas van creciendo (en forma de estrella) 3. Teoría de Witt: Se basa en teorías de la información. 4. Autoclass: Teorías de Bayes. 5. Formación de conceptos: tiene mecanismos que permiten realizar el aprendizaje de forma incremental. A B
  • 30. APRENDIZAJE DEDUCTIVO (APRENDIZAJE BASADO EN EXPLICACIONES) APRENDIZAJE AUTOMÁTICO
  • 31. 1 Deductivo: EBL (explanation based learning).(I) • El aprendizaje inductivo era el más utilizado, pero tiene un problema: el aprendizaje inductivo no preserva la veracidad pero preserva la falsedad. - No preserva la veracidad: por inducción no se puede afirmar algo que hemos observado. - Preserva la falsedad: podemos saber que algo es falso.
  • 32. 1 Deductivo: EBL (explanation based learning).(II) • La deducción permite preservar la veracidad ya que hay conocimiento del dominio que respalda las afirmaciones. Sobre el conocimiento obtenido inductivamente podemos deducir. La segunda diferencia es que el aprendizaje inductivo necesita muchos ejemplos para obtener información del dominio. En el deductivo nos vale con un ejemplo pero necesitamos más conocimiento del dominio.
  • 33. 1 Deductivo: EBL (explanation based learning).(III) • La tercera diferencia es que el método deductivo no incorpora nuevo conocimiento, tan solo consigue explicar mejor (concretar) el conocimiento existente.
  • 34. Definiciones: • Teoría del dominio (o conocimiento de respaldo) es la información específica del dominio que vamos a suponer completa y consistente (en SBR es la base de afirmaciones). • Concepto objetivo: es el concepto del que el método EBL debe determinar una definición efectiva y operacional. Se dice que es efectiva porque lleva a la solución rápidamente y es operacional porque se puede hacer en la máquina. • Ejemplo es una instancia concreta de un objetivo • Nueva teoría del dominio es una teoría del dominio modificada.
  • 36. Componentes: (I) • 1. Resolución del problema: utilizar el dominio y el ejemplo para 1Iegar al objetivo. • 2. Análisis de la traza: analizamos la solución para conseguir obtener una explicación. Usamos criterios: – A. Criterio de relevancia. va a ser realmente aquello que sea importante para abordar problemas futuros, en una traza va a ser realmente aquella información que forme parte en el camino de llegar a la solución. – B. Criterio de operatividad: son aquellas reglas que se activan directamente.
  • 37. Componentes: (II) • 3. Filtrado: filtra la información de la traza para llegar a la explicación. Coge lo que es relevante y operativo. Se obtiene una explicación. • 4. Generalización: consiste en sustituir las constantes por variables de forma que la expresión siga siendo válida. El método más usado es el algoritmo de regresión de objetivos. Regresionar una fórmula f a través de una regla r consiste en determinar las condiciones necesarias y suficientes bajo las cuales puede usarse la regla r para obtener f.
  • 38. Componentes: (III) • 5. Construir nueva información: La información que construimos puede ser: • Reglas de dominio que expresaran nuevas definiciones de conceptos en las que la parte izquierda de la regla serán las combinaciones necesarias y suficientes del árbol de explicación generalizado mientras que la raíz del mismo será la parte derecha de la regla. • Reglas de control que se construyen de forma similar. • 6. Incorporar: esas nuevas reglas hay que incorporarlas a la base de conocimiento, pero a veces se obtienen demasiadas reglas para introducir en nuestro sistema. Hay que llegar a una solución de compromiso (velocidad de inferencia o base de afirmaciones mayor).
  • 39. Problemas del EBL.(I) • Hemos supuesto que la base de conocimiento es completa y es consistente pero a veces la base que tenemos no es así. Por ello se producen dos problemas: • 1 Reformulación de la teoría: es provocado por el aumento de volumen de la información o bien por el aumento de la complejidad (reglas más complejas en la base de conocimiento .Y hay que determinar que dejamos y que eliminamos. Así que tenemos dos soluciones: o almacenar siempre o bien no almacenar nunca.
  • 40. Problemas del EBL.(II) • 2 Revisión de la teoría: la información obtenida no es adecuada porque: » La teoría es incompleta. » La teoría es incorrecta. » La teoría es inconsistente: se puede llegar a contradicciones. » La Teoría es intratable: por su volumen son difíciles de abordar.
  • 42. Introducción • Si dos situaciones son iguales en algunos de sus aspectos, lo normal es que puedan serlo en otras. – Ejemplo: • Un circuito y un sistema con una fórmula que define su comportamiento similar. Analogía entre las dos situaciones. Se usa cuando se conoce el comportamiento de un sistema, para conocer como se comporta un sistema análogo.
  • 43. Definiciones. • Problema base: situación conocida de ante mano. • Dominio base: lo que se conoce de él. • Problema objetivo: aplicamos lo conocido a la nueva situación. • Dominio objetivo: conocimiento obtenido de aplicar el problema objetivo junto con la situación conocida.
  • 44. Modelo unificado de analogía (I). KEDAR-COBELL (1988) • Fases: – 1. Recuperación: Partiendo del problema objetivo (dominio objetivo) buscamos un problema base en el dominio base que tenga similitudes significativas. – 2. Elaboración: Define conocimiento del problema base para poder aplicarlo en el problema objetivo.
  • 45. Modelo unificado de analogía (II). KEDAR-COBELL (1988) • Fases: – 3. Mapeo: Trasladamos el conocimiento desde el problema base hasta el objetivo. – 4. Justificación: Comprobamos si lo que sabemos es aplicable y funciona en la función objetivo. – 5. Aprendizaje: Consiste en almacenar el conocimiento obtenido aprendido, en el conocimiento objetivo
  • 46. Analogía transformacional. CARBONELL (1983) Plantea un espacio llamado ‘Tespacio’ y decide que hay varios problemas que pueden manejarse con el Tespacio, de manera que, se puede asignar a distintos problemas usando Toperadores.
  • 47. APRENDIZAJE POR REFUERZO DE TABLAS APOYOS AL APRENDIZAJE
  • 48. Introducción (I). • Aprendizaje por refuerzo de tablas consiste en tener una serie de parámetros y según los resultados de la funcionalidad del sistema ir modificando los parámetros.
  • 49. Introducción (II). • TIPOS DE APRENDIZAJE POR REFUERZO: – Inmediato: lleva una señal de refuerzo tras cada actuación del sistema y a cado paso tendrá una señal de refuerzo que indicará si va bien o mal. – Retardado: se pondera exclusivamente la acción del sistema. • Es más fácil manejar el retardado que el inmediato.
  • 50. Introducción (III). •CLASIFICACIÓN: 1. Refuerzo en tablas. 2. Redes neuronales. 3. Aprendizaje estímulo-acción
  • 51. Aprendizaje por refuerzo de tablas (I). • El aprendizaje por refuerzo en tablas consiste en gestionar el conocimiento mediante tablas de valores que se van actualizando atendiendo al valor del refuerzo. Son sólo aceptables por problemas aceptables por problemas de Markov. • Problemas modernizable por cadenas de Markov sólo dependen del estado en el que está el sistema y no depende de cómo ha llegado a ese estado.
  • 52. Aprendizaje por refuerzo de tablas (II). • TIPOS DE REFUERZO: – Refuerzo inmediato. – Refuerzo retardado.
  • 53. Aprendizaje por refuerzo de tablas (III). • Refuerzo inmediato: el algoritmo normal (es el que se conoce como algoritmo lineal de premio castigo, LRP) constituye una tabla con todos los posibles estados del sistema y todas las posibles acciones. El algoritmo lineal de refuerzo inacción, solamente se castiga, cuando lo haces bien no modifica los pesos y cuando lo hace mal lo castiga.
  • 54. Aprendizaje por refuerzo de tablas (IV). • ALGORITMO LINEAL DE PREMIO Y CASTIGO E1_A1 E1,A2 E1,A3 E1, E2_A1 E2,A2 E2, A3 E2,... Si se está en E1 y se pasa a E2, si es bueno se premia y si no se castiga.
  • 55. Aprendizaje por refuerzo de tablas (V). • Refuerzo retardado: suele ser más complejo y menos autónomo. Según se ha llegado al final se valora si se ha hecho bien o mal. Es más difícil detectar el fracaso en los parámetros del sistema.
  • 56. Páginas de interés • Aprendizaje en Inteligencia Artificial • Aprendizaje (definición y tipos) • Resumen Aprendizaje y Memoria • Inteligencia en Redes de Comunicaciones (Aprendizaje) • Aprendizaje definición y tipos en wikipedia • Aprendizaje Automático:Aprendizaje de Conceptos y Espacio de Versiones. • Aprendizaje Deductivo (Basado en la Explicación) • Introduction to Machine Learning • Machine Learning and Natural Language Processing • Aprendizaje automático
  • 57. Aprendizaje inductivo • Aprendizaje por observación (ppt) • Introducción y descripción de los algoritmos de A • Aprendizaje Inductivo • Aprendizaje Automático: Aprendizaje de Concep pdf) • Aprendizaje Inductivo
  • 58. Aprendizaje deductivo • Aprendizaje Deductivo ( Basado en la Explicación) • Articulo: Sugerencias para la enseñanza tomando • Aprendizaje automático. Técnicas basadas en EBL • DeJong y Mooney (1986), definieron el Aprendizaje Basado en la Explicación, EBL
  • 59. Aprendizaje por analogía • Aprendizaje por analogía • Aprendizaje por analogía • Introducción al aprendizaje de la maquina: sistem
  • 60. Aprendizaje basado en casos • Repositorio general sobre AI-CBR • Herramientas AI-CBR (ver académicas) • Documentación y código sobre el conocido sistema SWALE • Recursos CBR (AAAI) • INRECA: proyecto europeo del que se deriva CASUEL y CBR-W • Planificación y CBR (Veloso) / Planning and CBR • Agentes y CBR (CSIC) • Gente relacionada con ML y CBR / ML and CBR people • Conferencia Internacional de CBR'03
  • 61. Bibliografía • Mitchell (1997): “Machine Learning”. McGraw-Hill. • DA Norman (1988 ) “El aprendizaje y la memoria”. Alianza Editorial • LÓPEZ, J.A. (1990). "Inteligencia Artificial en Educación". Apuntes de Educación y NN.TT., nº 38" Madrid: Anaya • Gerhard Weib, Sandip Sen (1996) “Adaptation and learning in multi-agent systems ed”. • CASACUBIERTA, F. Y VIDAL, E. (1987 a) “Reconocimiento automático del habla”. Marcombo. • D. Borrajo, J.G. Boticario y P. Isasi. (“saldrá publicado” en abril 2006).“Aprendizaje Automático.” Editorial Sanz y Torres • A. Moreno Ribas y otros (1994). “Aprendizaje Automático.” Ediciones UPC (Universidad Politécnica de Cataluña) • Carbonell, J.G., Michalski, R.S., and Mitchell, T.M., "Machine learning: A historical and methodological analysis". AI Magazine, Fall (1983) 69-79. • Chandrasekaran, B., Johnson, T.R., and Smith, J.W., "Task-structure analysis for knowledge modeling". Communications of the ACM, 35 (1992) 124-137.
  • 62. Artículos destacados • A Learning Algorithm For Neural Network Ensembles http://ltcs.uned.es:8080/aepia/Uploads/12/128.pdf • Presentacion Monografia: Sistemas Inteligentes en el ambito de la Educacion http://ltcs.uned.es:8080/aepia/Uploads/12/131.pdf • Apredizaje de la similitud entre casos con valores discretos y numéricos(Premio Accésit Jose Cuena) http://tornado.dia.fi.upm.es/caepia/numeros9/luaces.ps.gz • ¿Aprendizaje o Aprendizajes? http://contexto-educativo.com.ar/2001/2/nota-02.htm
  • 63. Artículos destacados (II) • Un método deductivo para la enseñanza http://www.edscuola.it/archivio/software/bit/course/Revist aEnsenanza.pdf • Aprendizaje Deductivo, Inductivo, y Abductivo con Algoritmos Genéticos http://www.inf.udec.cl/revista/ediciones/edicion10/apr-ag.pdf • Análisis y síntesis de la señal acústica http://cvc.cervantes.es/obref/congresos/sevilla/tecnologias/mesaredon_ casacuberta.htm • Aprendizaje en inteligencia artificial http://www.sindominio.net/~apm/articulos/IAIC/aprendizaje/aprendiza je.pdf
  • 64. Aplicaciones • Sistema de tutoría inteligente adaptativo considerando estilos de aprendizaje http://eia.udg.es/~clarenes/docs/ribie-udg-2002.pdf. • Sistema de Reconocimiento del habla http://es.wikipedia.org/wiki/Reconocimiento_del_habla • Programa que aprende a jugar al Backgammon entrenándose contra sí mismo mediante aprendizaje con refuerzo. El programa logró un nivel de juego comparable al de los expertos humanos. “Temporal difference learning and TD-Gammon” (http://www.research.ibm.com/massive/tdl.html)
  • 65. Aplicaciones (II) • Machine Learning for Distributed Traffic Control http://www.isle.org/%7Elangley/traffic.html • How can computers learn to decode a person's mental state from their brain activity? http://www.cs.cmu.edu/afs/cs/project/theo- 73/www/index.html