SlideShare una empresa de Scribd logo
1 de 6
Descargar para leer sin conexión
ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010




Aprendizaje de la sintaxis para la descripci´n de escenas compuestas
                                            o
                       por figuras geom´tricas∗
                                        e

                                       David P´rez1
                                              e          Sergio Guadarrama1

                                          1
                                           European Centre for Soft Computing
                                                Mieres (Asturias), Espa˜a.
                                                                       n
                                    {david.perez, sergio.guadarrama}@softcomputing.es




                      Resumen

    La forma en que las personas describimos los
    objetos de una escena tiene caracter´    ısticas
    particulares concretas. Nuestro trabajo ser´   a
    tratar de aprender estas caracter´ısticas. Para
    ello, primeramente necesitamos conocer la
    sintaxis de estas descripciones, motivo prin-
    cipal de este paper. El objetivo final ser´ des-
                                              a
    cribir nuevas escenas de forma autom´tica.
                                            a


1    Introducci´n
               o

El trabajo aqu´ presentado est´ englobado dentro del
                ı               a
proyecto Smart-Bees, en el que se tratan de realizar
descripciones autom´ticas de objetos presentes en una
                     a
escena. Las escenas est´n formadas por varios obje-
                         a
tos, por lo que las descripciones han de discriminar
al elemento seleccionado de forma inequ´  ıvoca. Estas             Figura 1: Ejemplo de imagen para describir
escenas constar´n de distintos objetos geom´tricos co-
                 a                           e
loreados, dispuestos en un lienzo negro, como se puede
ver en la figura 1. Uno de estos objetos, el que se debe       del l´xico y de la sintaxis; las otras fases se explican en
                                                                   e
describir, tiene el borde punteado para diferenciarlo         el trabajo [1] (tambi´n presentado en esta conferencia).
                                                                                    e
del resto.
                                                              Las frases recopiladas tienen distintas estructuras, y
Para resolver este problema se han de cubrir distintas        en las mismas los usuarios tratan de describir el ob-
fases: obtenci´n de descripciones de objetos hechas
                o                                             jeto de forma directa, haciendo referencia s´lo al ob-
                                                                                                            o
por los usuarios; aprendizaje del l´xico y de la sin-
                                     e                        jeto descrito, o de forma indirecta, haciendo referencia
taxis de estas frases; aprendizaje de la sem´ntica de
                                             a                a alg´n otro objeto que sirva para aclarar posibles am-
                                                                   u
las palabras utilizadas teniendo en cuenta las carac-         big¨edades.
                                                                 u
ter´
   ısticas del objeto descrito; generaci´n de frases si-
                                        o
                                                              Para llevar a cabo esta tarea, inicialmente, y tras la
guiendo la sint´xis y sem´ntica previamente adquiri-
                 a         a
                                                              recolecci´n de las frases, realizamos un clustering por
                                                                       o
das; validaci´n de las frases generadas.
             o
                                                              tipos de palabras, considerando unicamente las pala-
                                                                                                  ´
La parte del problema al que nos enfrentamos en este          bras que tengan una frecuencia significativa. Una vez
documento es el correspondiente a las primeras fases          obtenidos estos grupos se crear´ una gram´tica que
                                                                                                 a          a
del aprendizaje; la obtenci´n de frases, el aprendizaje
                           o                                  reconozca las frases, con la cual se generar´n frases
                                                                                                            a
    ∗                                                         que podr´n ser valoradas. Hemos probado distintos
                                                                        a
     Este trabajo ha sido financiado por la Fundaci´n para
                                                  o
el progreso del Soft Computing, el Ministerio de Ciencia e    tipos de clusterings y de aprendizaje de gram´ticas
                                                                                                                a
Innovaci´n Espa˜ol (MICINN) y el Fondo Social Europeo,
         o       n                                            para comprobar que combinaci´n nos da mejores re-
                                                                                                o
bajo el programa Juan de la Cierva JCI-2008-3531.             sultados.




XV Congreso Español Sobre Tecnologías y Lógica Fuzzy                                                                   49
ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010




Evaluar los resultados de las opciones contempladas         evaluacion(frasesGeneradas,test);
para cada caso ser´ una parte importante del docu-
                   a
mento, destacando, en base a estos resultados, la mejor     A su vez, describiremos a continuaci´n las diferentes
                                                                                                o
opci´n en cada caso.
    o                                                       pasos, as´ como las alternativas barajadas en cada
                                                                      ı
                                                            caso, de la siguiente forma:
El problema de generar frases de forma autom´tica  a
para describir un objeto dentro de una escena, nuestro      Filtrado de frases: Se han filtrado las frases te-
objetivo global, ha sido estudiado por varios autores [2,       niendo en cuenta unicamente las que ten´ un
                                                                                  ´                      ıan
3]. En [2] se describen de forma detallada las distintas        n´mero de palabras igual o menor que 10. Las
                                                                  u
fases del problema al que nos enfrentamos.                      frases de un tama˜o mayor a 10 se consideran
                                                                                  n
En cuanto a las distancias a emplear en el clustering,          demasiado complejas como para ayudar al apren-
el m´todo basado en proximidad de palabras, utilizado
     e                                                          dizaje. Con este filtrado se descartan un 5% de
por los ni˜os en su aprendizaje, pueden verse descrip-
          n                                                     las frases.
ciones del mismo en [6] y usos similares al que se le da    Filtrado de palabras: Se consideran unicamente las
                                                                                                  ´
aqu´ en [3, 4, 7]. Por otra parte, las distancias basadas
    ı                                                           palabras que ten´ una frecuencia mayor o igual
                                                                                 ıan
en coocurrencias puede verse en [9].                            a 10, para evitar palabras poco representativas o
Finalmente, los algoritmos de aprendizaje de gram´- a           con errores.
ticas utilizados pueden verse en los documentos [3, 5].
                                                            Generaci´n de conjuntos de entrenamiento y test:
                                                                     o
                                                               Para ello realizamos dos tipos de divisi´n. Una
                                                                                                          o
Este documento comienza con un resumen de los pun-             en la que se utilizar´n todas las frases para entre-
                                                                                    a
tos claves del trabajo y de las soluciones adoptadas en        namiento y validaci´n; y otra en la que dividire-
                                                                                    o
cada uno de estos casos. Pasamos, posteriormente, a            mos los datos disponibles 80% para entrenamiento
mostrar y valorar los resultados, dejando, finalmente,          y el 20% restante para evaluar lo aprendido.
un apartado de conclusiones y trabajo a realizar en el
                                                            Formaci´n de clases de palabras: Se han com-
                                                                    o
futuro.
                                                               parado dos tipos de formaci´n de clases depen-
                                                                                            o
                                                               diendo de como se construyen las distancias entre
2     Propuesta                                                las palabras: seg´n las coocurrencias de palabras
                                                                                u
                                                               en la misma frase y otra en funci´n de la proxim-
                                                                                                o
2.1   Recolecci´n de datos
               o                                               idad de las mismas. Esta cuesti´n ser´ abordada
                                                                                               o     a
                                                               m´s a fondo en el apartado 3.
                                                                 a
La obtenci´n de descripciones de objetos de una escena
           o
se realiza a trav´s del portal
                 e                                          Aprendizaje de gram´ticas: Se han probado cua-
                                                                                    a
                                                               tro algoritmos que aprenden gram´ticas: entre-
                                                                                                     a
      http://www3.softcomputing.es/smart-bees                  nando a una cadena de Markov con las secuen-
                                                               cias de palabras presentes en los datos; entre-
En ´ste se presenta un apartado, “Describe images”, en
    e                                                          nando a una cadena de Markov con las secuencias
el que los usuarios pueden realizar las descripciones en       de clases previamente creadas; escogiendo una es-
ingl´s de un objeto seleccionado dentro de una escena,
    e                                                          tructura al azar de las presentes en los datos de en-
que ha sido generada de forma aleatoria. Hay 350               trenamiento; finalmente generando el bigrama de
escenas que contienen 7 objetos con formas, colores y          probabilidades de que despu´s de una clase venga
                                                                                             e
posiciones distintas.                                          otra. Se explicar´ con m´s detalle este punto en
                                                                                 a        a
Se han recogido 360 frases, con las que se realizar´ el
                                                   a           la secci´n 4.
                                                                       o
entrenamiento, de 34 usuarios distintos.                Generaci´n de frases: Una vez generada la gram´-
                                                                 o                                          a
Tras estudiar el problema del an´lisis sint´ctico vamos
                                a          a               tica correspondiente en cada caso pasaremos a
a mostrar los pasos relevantes que hemos seguido en        generar las frases haciendo uso de esta gram´tica.
                                                                                                        a
pseudo-codigo:                                             Para ello tenemos dos tipos, utilizar directamente
                                                           la salida de la secuencia de palabras que nos de
carga(frases, palabras);                                   la gram´tica, para el caso de cadena de Markov
                                                                   a
frases=filtrado(frases);                                   de secuencias de palabras, o convertir la secuen-
palabras=filtrado(palabras);                               cia de clases a palabras utilizando el m´todo de
                                                                                                     e
[train test]=separacion(frases);                           Monte Carlo [10] de acuerdo con la frecuencia de
clases=clustering(palabras,train);                         las palabras de cada clase, utilizada para el resto
gramatica=train_gramatica(clases,train);                   de aprendizajes de gram´ticas. Se ver´ m´s a
                                                                                     a                a a
frasesGeneradas=generar_frases(gramatica,train);           fondo en el punto 5.




50                                                                 XV Congreso Español Sobre Tecnologías y Lógica Fuzzy
ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010




3     Formaci´n de clases de palabras
             o
                                                                                           𝑅(𝑤𝑖 , 𝑤𝑗 )
                                                                     𝐷(𝑤𝑖 , 𝑤𝑗 ) =
Agruparemos una serie de datos, en nuestro caso con-                                  𝑚𝑖𝑛(𝑆(𝑤𝑖 ), 𝑆(𝑤𝑗 )) + 1
creto palabras, de acuerdo con un criterio de cercan´ ıa
                                                            Finalmente esta matriz se acota entre 0 y 1 dividiendo
y utilizando un clustering jer´rquico, en el que se van
                              a
                                                            todos los valores por el m´ximo valor de la misma.
                                                                                      a
juntando las palabras m´s pr´ximas de forma itera-
                         a      o
tiva. Esta cercan´ se define en t´rminos de una de-
                  ıa               e                        Una vez hecho esto, la matriz de distancias ser´ pasada
                                                                                                           a
terminada funci´n de distancia.
                o                                           a una funci´n de clustering jer´rquico que ir´ agru-
                                                                        o                    a               a
                                                            pando las palabras m´s cercanas primero. Se han
                                                                                   a
Pasamos ahora a describir las distancias utilizadas
                                                            probado, no obstante, varios par´metros de entrada
                                                                                               a
para realizar el clustering jer´rquico que agrupa las
                                a
                                                            a esta funci´n de clustering para comprobar cual nos
                                                                        o
palabras en clases. Como anticipo podemos decir que
                                                            da el mejor resultado.
utilizamos medidas de distancia que unicamente se
                                        ´
centran en el orden y aparici´n de dichas palabras en
                              o                             Obteniendo las siguientes clases al aplicar el clustering
las frases dadas. Tendremos una distancia basada en         con esta distancia:
coocurrencias y otra basada en la proximidad de las         Clase 1 = { TOP, OVAL, ELLIPSE, BIG }
palabras dentro de la frase.                                Clase 2 = { BOTTOM, YELLOW }
                                                            Clase 3 = { LEFT, SQUARE }
                                                            Clase 4 = { ON, IN, AT, BEHIND }
3.1     Distancia basada en coocurrencias
                                                            Clase 5 = { CIRCLE, TRIANGLE, RECTANGLE }
Palabras que desempe˜an el mismo papel en una frase
                       n                                    Clase 6 = { THE }
tienden a ocurrir de modo excluyente, es decir, dos         Clase 7 = { LIGHT, BACKGROUND, A, RIGHT,
palabras que pertenecen a la misma clase no suelen          DARK, FRONT, PURPLE }
aparecer en la misma frase. Por ejemplo, palabras que       Clase 8 = { PINK, BLUE, GREEN, ORANGE, RED,
hagan referencia a la forma no ser´ com´n encontrarlas
                                  a    u                    VIOLET, BROWN }
a la vez en una frase, al menos en las descripciones
directas. Se trata de asignar una distancia baja, por
tanto facilidad para que se encuentren dentro de la         3.2   Distancia basada en la proximidad de las
misma clase, a aquellas palabras que aparezcan pocas              palabras
veces en la misma frase.
                                                            Esta forma de c´lculo de distancias va m´s all´ de
                                                                            a                          a    a
Denotaremos el conjunto de M descripciones como             la coocurrencia de las palabras en la misma frase
𝑈 = 𝑢1 , 𝑢2 , . . . , 𝑢𝑀 . Las palabras de todo el vocab-   y tambi´n considera que las palabras se encuentren
                                                                    e
ulario ser´n representadas por 𝑊 = 𝑤1 , 𝑤2 , . . . , 𝑤𝑁
          a                                                 pr´ximas en las frases en las que aparecen, haciendo
                                                              o
con N el n´mero de palabras del vocabulario mane-
            u                                               que estas palabras sean clasificadas en distintos gru-
jadas. Definimos tambi´n 𝑆(𝑤𝑖 ) como el n´mero de
                             e                  u           pos.
apariciones de la palabra 𝑤𝑖 en todas las descripciones
dadas en 𝑈 . Como se define en [2], un indicador de          Los c´lculos realizados son similares a los del caso de
                                                                  a
coocurrencia de palabras es:                                la distancia basada en coocurrencias, salvo que para
                                                            la funci´n 𝑅 y 𝜋 se calculan de la siguiente forma:
                                                                    o

                                                                                          ∑
                                                                        𝑅𝑙 (𝑤𝑖 , 𝑤𝑗 ) =         𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 , 𝑙)
                         {
                             1 𝑠𝑖 𝑤𝑖 𝑦 𝑤𝑗 𝑎𝑝𝑎𝑟𝑒𝑐𝑒𝑛 𝑒𝑛 𝑢
      𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 ) =                                                                    𝑢∈𝑈
                             0            𝑠𝑖𝑛𝑜
                                                                                    ⎧
Bas´ndonos en 𝜋 obtenemos la matriz R de coocurren-
    a                                                                               ⎨ 1  𝑠𝑖 𝑤𝑖 𝑦 𝑤𝑗 𝑜𝑐𝑢𝑟𝑟𝑒𝑛 𝑒𝑛 𝑢
cias de la siguiente forma:                                   𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 , 𝑙) =       𝑦 𝑠𝑢𝑠 𝑝𝑜𝑠𝑖𝑐𝑖𝑜𝑛𝑒𝑠 𝑑𝑖𝑠𝑡𝑎𝑛 𝑙
                                                                                      0            𝑠𝑖𝑛𝑜
                                                                                    ⎩
                                ∑
               𝑅(𝑤𝑖 , 𝑤𝑗 ) =          𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 )
                                𝑢∈𝑈                         Como concluyeron los autores de [4], las palabras
                                                            pr´ximas m´s relevantes son las dos precedentes y las
                                                              o         a
                                                            dos siguientes (l={ -2, -1, 1, 2 }) y por tanto as´ lo
                                                                                                              ı
Una vez calculada esta matriz, pasamos ahora a cal-
                                                            hemos hecho en este trabajo.
cular una matriz de distancias entre palabras, 𝐷, que
ser´ la base de c´lculo de los distintos clusters en los
   a              a                                         Por ejemplo, para u={“the blue rectangle”} la llamada
que se dividir´n las palabras. La misma ser´ calculada
              a                             a               𝜋(u,“the”,“rectangle”,2)=1 ya que sus posiciones dis-
como: (diferiendo con la dada en [2] en este caso)          tan 2, 𝜋(u,“the”,“blue”,1)=1, ...




XV Congreso Español Sobre Tecnologías y Lógica Fuzzy                                                                51
ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010




La distancia utilizada en este caso es la del coseno               4.3   Patrones de las frases de entrenamiento

                                                                   De todas las frases de entrenamiento se coger´ de
                                                                                                                  a
                  ∑                                                forma aleatoria una de las estructuras de clases all´
                                                                                                                       ı
                         min(𝑅𝑙 (𝑤𝑖 , 𝑤𝑘 ), 𝑅𝑙 (𝑤𝑗 , 𝑤𝑘 ))
                                                                   presentes.
                 𝑤𝑘 ∈𝑊
𝐷(𝑤𝑖 , 𝑤𝑗 ) = √ ∑
                                                                   El coste computacional de este m´todo es muy bajo.
                                                                                                   e
                                          √ ∑
                        𝑅𝑙 (𝑤𝑖 , 𝑤𝑘 ) +            𝑅𝑙 (𝑤𝑗 , 𝑤𝑘 )
                𝑤𝑘 ∈𝑊                      𝑤𝑘 ∈𝑊
                                                                   4.4   Utilizaci´n del bigrama de
                                                                                  o
                                                                         probabilidades de clases
Obtenemos las siguientes clases al aplicar este m´todo
                                                 e
a los datos manejados:                                             En este caso se construye un bigrama con las probabil-
Clase 1 = { THE, A }                                               idades de transici´n de ir de una clase a otra, de forma
                                                                                     o
Clase 2 = { BACKGROUND, FRONT }                                    similar a lo expuesto en [2]. Se muestra un ejemplo de
Clase 3 = { CIRCLE, OVAL, TRIANGLE, RECTAN-                        este tipo de bigramas en la figura 2. En ´ste los no-
                                                                                                                e
GLE, ELLIPSE, SQUARE }                                             dos S y E son los correspondientes a principio y fin de
Clase 4 = { ON, IN, AT, BEHIND }                                   sentencia respectivamente, mientras que los n´meros
                                                                                                                    u
Clase 5 = { LIGHT, BIG, DARK }                                     representan las clases de palabras, en este caso son las
Clase 6 = { TOP, BOTTOM, RIGHT, LEFT }                             mostradas en el apartado 3.2, generadas con la distan-
Clase 7 = { PINK, BLUE, GREEN, ORANGE, RED,                        cia basada en la proximidad.
YELLOW, PURPLE, VIOLET, BROWN }



4     Aprendizaje de gram´ticas
                         a

A la hora de aprender las gram´ticas que describan la
                              a
sintaxis se han contemplado cuatro opciones, una que
proporciona una gram´tica implicita y otras tres que
                      a
proporcionan una gram´tica expl´
                        a         ıcita. Se pondr´ a
                                                  a
prueba a las mismas para decidir cual nos proporciona
la mejor soluci´n.
               o

4.1   Aprendizaje cadena de Markov con
      secuencias de palabras

Utilizando todas las secuencias de palabras que nos
proporcionan los datos de entrenamiento aprendemos
una cadena de Markov que generar´ frases como se-
                                   a
cuencias de palabras.
Al generar frases de este modo, el coste computacional
ser´ muy alto, e incluso el algoritmo en muchos casos
   a
no llega a converger.

4.2   Aprendizaje cadena de Markov con
      secuencias de clases

Al igual que en la anterior soluci´n aprendemos una ca-
                                  o
dena de Markov, aunque en este caso con los datos de               Figura 2: Ejemplo de bigrama de probabilidades de
las clases de las frases de entrenamiento, en vez de las           clases
palabras. Al producirse m´s frecuentemente una se-
                              a
cuencia concreta de clases que de palabras esta opci´n
                                                     o             Una vez construido este bigrama utilizaremos la matriz
nos proporcionar´, a priori, mejores resultados que la
                   a                                               asociada al mismo como matriz de transici´n de una
                                                                                                              o
previa.                                                            cadena de Markov que nos dar´ secuencias de clases.
                                                                                                 a
El coste computacional de esta opci´n es alto y las
                                   o                               La complejidad computacional de este m´todo es me-
                                                                                                         e
frases tendr´n un tama˜o no prefijado.
            a         n                                            dia.




52                                                                        XV Congreso Español Sobre Tecnologías y Lógica Fuzzy
ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010




5   Generaci´n de frases
            o                                             para el caso de las distancias basadas en la proximidad
                                                          de las palabras.
Para el caso del aprendizaje de una cadena de Markov
con secuencias de palabras esta generaci´n es directa
                                         o                    Algoritmos           Precisi´n
                                                                                          o           Recall
utilizando la secuencia de palabras que genere la ca-       Markov palabras      0.076±0.026       0.037±0.009
dena de Markov.                                              Markov clases       0.028±0.017       0.024±0.008
En el resto de casos se utilizar´ el m´todo de Monte
                                a     e                        Patrones          0.032±0.015       0.027±0.007
Carlo [10] para determinar que palabra utilizar en cada        Bigrama           0.034±0.019       0.023±0.007
clase, en funci´n de la frecuencia de aparici´n de las
               o                              o                 Media           0.043±0.028       0.028±0.009
palabras con respecto a las dem´s palabras en su clase.
                                a
Algunos ejemplos de frecuencias de palabras dentro de     Tabla 1: Comparativa de algoritmos de generaci´n de
                                                                                                        o
su clase, para las clases de la secci´n 3.2, son:
                                     o                    frases con clases basadas en coocurrencia.
Clase 1 = { THE [88%], A [12%]}
Clase 2 = { BACKGROUND [49%], FRONT [51%]}
                                                              Algoritmos           Precisi´n
                                                                                          o           Recall
Clase 3 = { CIRCLE [21%], OVAL [6%], ... } ...
                                                            Markov palabras      0.089±0.026       0.040±0.009
                                                             Markov clases       0.065±0.027       0.032±0.008
6   Resultados                                                 Patrones          0.088±0.019       0.043±0.007
                                                               Bigrama           0.114±0.025       0.042±0.007
En esta secci´n se presentar´n brevemente los resul-
             o               a                                  Media           0.089±0.030       0.039±0.009
tados obtenidos con los algoritmos antes expuestos y
comparando las distintas alternativas barajadas. Para     Tabla 2: Comparativa de algoritmos de generaci´n de
                                                                                                         o
estas pruebas se han evaluado las frases generadas en     frases con clases basadas en proximidad de palabras.
cada caso en funci´n de precisi´n y recall de los mis-
                  o            o
mos:                                                      Seguidamente, para comprobar la convergencia de los
                                                          resultados obtenidos, utilizando todos los datos para
Precisi´n : Es una medida de exactitud o fidelidad.
       o                                                  entrenar y validar, se han calculado los recall y pre-
   En nuestro caso ser´ el porcentaje de frases del
                        a                                 cisi´n, al generar 100, 1.000, 10.000, 100.000, 1.000.000
                                                              o
   conjunto de las generadas que son reproducciones       frases, con las distancias basadas en proximidad. Se
   exactas de, al menos, una frase de entrenamiento.      pueden ver las evoluciones de la precisi´n en la figura
                                                                                                    o
   Una precisi´n del 1.0 signifar´ que todas las frases
              o                  ıa                       3 y del recall en la figura 4
   generadas est´n presentes en los datos de entre-
                 a
   namiento.

Recall : Es una medida de completitud. Para el caso
   que nos centramos, consistir´ en el porcentaje de
                                 a
   frases de entrenamiento que el sistema es capaz de
   generar. Un recall de 1.0 se dar´ en el caso de que
                                   ıa
   todos los datos de entrenamiento son generados
   por el sistema al menos una vez.

Como una primera prueba, se han realizado 100 repeti-
ciones de 1000 frases generadas, utilizando un 80% de
las frases disponibles para entrenar y el 20% restante
para validar las generadas, utilizando los 2 tipos de
distancias para el clustering y las 4 formas de apren-
dizaje de gram´ticas mencionadas. Estas frases han
                a
sido evaluadas de forma autom´tica obteniendo resul-
                                a                                  Figura 3: Evoluci´n de la precisi´n.
                                                                                    o               o
tados de precisi´n y recall.
                o
En la tabla 1 presentamos la media y la desviaci´n o      Finalmente, han sido generadas 100 frases para eval-
t´
 ıpica de las 100 repeticiones al generar 1000 frases     uar su correcci´n sint´ctica manualmente por dos per-
                                                                         o      a
con los cuatro algoritmos de generaci´n de frases an-
                                     o                    sonas con los 3 mejores m´todos de aprendizajes de
                                                                                      e
teriormente introducidos para la distancia basada en      gram´ticas y utilizando para realizar el clustering la
                                                               a
coocurrencias. Y en la tabla 2 mostramos los mismos       distancia basada en la proximidad de las palabras, que




XV Congreso Español Sobre Tecnologías y Lógica Fuzzy                                                             53
ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010




                                                           soluci´n para construir frases sint´cticamente correc-
                                                                  o                            a
                                                           tas (88%) es utilizar la distancia basada en la proximi-
                                                           dad de palabras para crear las clases de palabras y, uti-
                                                           lizar patrones extraidos de los datos de entrenamiento.
                                                           La segunda mejor combinaci´n es la de utilizar el bi-
                                                                                          o
                                                           grama de probabilidades, junto con la distancia basada
                                                           en proximidad, ya que se obtinen unos resultados cer-
                                                           canos a la mejor opci´n estudiada (79%).
                                                                                  o
                                                           Como se indica al inicio del documento, el trabajo
                                                           aqu´ realizado pertenece a la b´squeda de un obje-
                                                               ı                           u
                                                           tivo m´s ambicioso de describir objetos dentro de una
                                                                  a
                                                           imagen de forma adecuada, por lo que generar frases
                                                           sint´cticamente correctas no es suficiente, sino que
                                                               a
                                                           deben ser sem´nticamente correctas.
                                                                         a
             Figura 4: Evoluci´n del recall.
                              o                            La generaci´n de frases compuestas, donde se hace ref-
                                                                        o
                                                           erencia a m´s de un objeto, queda como trabajo fu-
                                                                         a
                                                           turo. Ya que existir´n casos donde los objetos que
                                                                                  a
obtiene mejores resultados que la basada en coocurren-     acompa˜an al que se debe describir tendr´n carac-
                                                                    n                                    a
cias. Estos resultados se pueden ver resumidos en la       ter´
                                                              ısticas similares al seleccionado por lo que la frase
tabla 3.                                                   ha de ser m´s compleja.
                                                                        a

       Algoritmos      Porcentaje de frases correctas
     Markov palabras               0.68                    Referencias
        Patrones                   0.88
                                                            [1] Sergio Guadarrama, David P´rez. Learning Se-
                                                                                             e
        Bigrama                    0.79                         mantic Models from Descriptions of Shapes made
                                                                by Web-Users. 2009.
Tabla 3: Resumen de resultados obtenidos manual-
mente.                                                      [2] Deb K. Roy. Learning Visually-Grounded Words
                                                                and Syntax for a Scene Description Task. 2002.
                                                            [3] Peter Gorniak, Deb Roy. Grounded Semantic
7      An´lisis de resultados
         a                                                      Composition for Visual Scenes. 2004.

Como se puede apreciar en las tablas 1 y 2 existe una       [4] Martin Redington, Nick Chater, Steven Finch.
mejora al utilizar la distancia basada en la proximi-           Distributional Information: A Powerful Cue for
dad de palabras para todos los tipos de aprendizaje de          Acquiring Syntactic Categories. 1998.
gram´ticas.
     a
                                                            [5] Zach Solan, David Horn, Eytan Ruppin. Unsu-
Al comparar las frases generadas por los cuatro                 pervised Learning of natural languages. 2005.
m´todos de aprendizaje de gram´ticas con los datos
  e                               a
de test, puede verse en las figuras 3 y 4 que el m´todo
                                                  e         [6] Steven Finch, Nick Chater. Distributional Boot-
de aprender una cadena de Markov con las clases ob-             strapping: From Word Class to Proto-Sentence.
tiene los peores resultados. Y que los otros 3 m´todos
                                                 e              1994.
obtienen unos resultados muy similares para todos el-       [7] Fernando Pereira, Naftali Tishby, Lillian Lee. Dis-
los.                                                            tributional Clustering of English Words. 1993.
Al comparar las frases generadas por los otros 3
                                                            [8] Percy Liang, Michael I. Jordan, Dan Klein. Learn-
m´todos de forma manual, tabla 3, los mejores resul-
  e
                                                                ing Semantic Correspondences with Less Supervi-
tados se obtienen con el m´todo basado en utilizar
                            e
                                                                sion. 2009.
patrones del conjunto de entrenamiento.
                                                            [9] Thomas Hofmann. Unsupervised Learning by
8      Conclusi´n y trabajo futuro
               o                                                Probabilistic Latent Semantic Analysis. 2001.
                                                           [10] Nicholas Metropolis, Stanislaw Ulman. The
Al analizar todos las pruebas realizadas con las distin-        Monte Carlo Method. 1949.
tas distancias de clustering y los distintos m´todos de
                                              e
aprendizaje de gram´ticas concluimos que la merjor
                      a




54                                                                XV Congreso Español Sobre Tecnologías y Lógica Fuzzy

Más contenido relacionado

La actualidad más candente

Analisis e Interpretacion de Indicadores Prof Diofante (IV)
Analisis e Interpretacion de Indicadores Prof Diofante (IV)Analisis e Interpretacion de Indicadores Prof Diofante (IV)
Analisis e Interpretacion de Indicadores Prof Diofante (IV)controlgestionarmada
 
Rúbrica lectura y redacción 2 b2 2012
Rúbrica lectura y redacción 2 b2 2012Rúbrica lectura y redacción 2 b2 2012
Rúbrica lectura y redacción 2 b2 2012maupserrano
 
Presentacion Flores R. PROME
Presentacion Flores R. PROMEPresentacion Flores R. PROME
Presentacion Flores R. PROMEPROMEIPN
 
Proyecto victor
Proyecto victorProyecto victor
Proyecto victorUNEFM adi
 
Rubrica Catedra car672 Percepción Remota Mera
Rubrica Catedra car672 Percepción Remota MeraRubrica Catedra car672 Percepción Remota Mera
Rubrica Catedra car672 Percepción Remota MeraEduardo Mera
 
Desarrollo didáctico de la noción de números
Desarrollo didáctico de la noción de númerosDesarrollo didáctico de la noción de números
Desarrollo didáctico de la noción de númerosDaniel Medina
 
Desarrollo didáctico y conceptual de la noción de número y su relacion con la...
Desarrollo didáctico y conceptual de la noción de número y su relacion con la...Desarrollo didáctico y conceptual de la noción de número y su relacion con la...
Desarrollo didáctico y conceptual de la noción de número y su relacion con la...Doraa Tejeda Crespo
 

La actualidad más candente (17)

Analisis e Interpretacion de Indicadores Prof Diofante (IV)
Analisis e Interpretacion de Indicadores Prof Diofante (IV)Analisis e Interpretacion de Indicadores Prof Diofante (IV)
Analisis e Interpretacion de Indicadores Prof Diofante (IV)
 
Aritmetica
AritmeticaAritmetica
Aritmetica
 
Reactivos
ReactivosReactivos
Reactivos
 
Rúbrica lectura y redacción 2 b2 2012
Rúbrica lectura y redacción 2 b2 2012Rúbrica lectura y redacción 2 b2 2012
Rúbrica lectura y redacción 2 b2 2012
 
Plan segundo
Plan segundoPlan segundo
Plan segundo
 
Programación general
Programación generalProgramación general
Programación general
 
Presentacion Flores R. PROME
Presentacion Flores R. PROMEPresentacion Flores R. PROME
Presentacion Flores R. PROME
 
Serna
SernaSerna
Serna
 
Prog matemat vpa 2009
Prog matemat vpa   2009Prog matemat vpa   2009
Prog matemat vpa 2009
 
Estandares grado 1° 2013
Estandares grado 1° 2013Estandares grado 1° 2013
Estandares grado 1° 2013
 
Proyecto victor
Proyecto victorProyecto victor
Proyecto victor
 
Rubrica Catedra car672 Percepción Remota Mera
Rubrica Catedra car672 Percepción Remota MeraRubrica Catedra car672 Percepción Remota Mera
Rubrica Catedra car672 Percepción Remota Mera
 
Planificación 9no
Planificación 9noPlanificación 9no
Planificación 9no
 
Diseño instruccional2
Diseño instruccional2Diseño instruccional2
Diseño instruccional2
 
Plan de clase
Plan de clasePlan de clase
Plan de clase
 
Desarrollo didáctico de la noción de números
Desarrollo didáctico de la noción de númerosDesarrollo didáctico de la noción de números
Desarrollo didáctico de la noción de números
 
Desarrollo didáctico y conceptual de la noción de número y su relacion con la...
Desarrollo didáctico y conceptual de la noción de número y su relacion con la...Desarrollo didáctico y conceptual de la noción de número y su relacion con la...
Desarrollo didáctico y conceptual de la noción de número y su relacion con la...
 

Similar a Consulta método de descripción de escena

Taller de lectura y escritura académicas 02 - la secuencia expositivo - exp...
Taller de lectura y escritura académicas   02 - la secuencia expositivo - exp...Taller de lectura y escritura académicas   02 - la secuencia expositivo - exp...
Taller de lectura y escritura académicas 02 - la secuencia expositivo - exp...Manuela Molina
 
Sesión de aprendizaje and5es
Sesión de aprendizaje and5esSesión de aprendizaje and5es
Sesión de aprendizaje and5esroshansmallville
 
La ciencia del texto
La ciencia del textoLa ciencia del texto
La ciencia del textoDavid Diaz
 
Prueba saber 2012 qué evalúa al grado tercero lenguaje y matemáticas
Prueba saber 2012 qué evalúa al grado tercero lenguaje y matemáticasPrueba saber 2012 qué evalúa al grado tercero lenguaje y matemáticas
Prueba saber 2012 qué evalúa al grado tercero lenguaje y matemáticasIETI AJC Olga Lucía Lloreda
 
3 b2 semana del 21 al 25 de noviembre
3 b2 semana del 21 al 25 de noviembre3 b2 semana del 21 al 25 de noviembre
3 b2 semana del 21 al 25 de noviembreDiego Mejía
 
Presentacion Principal Taller Por Competencias
Presentacion Principal Taller Por CompetenciasPresentacion Principal Taller Por Competencias
Presentacion Principal Taller Por CompetenciasNathanoj Jovans
 
Presentacionprincipaltallerporcompetencias
Presentacionprincipaltallerporcompetencias Presentacionprincipaltallerporcompetencias
Presentacionprincipaltallerporcompetencias Rene ramirez
 
Unidad 4 Diseño de Interfaces Hombre-Maquina
Unidad 4 Diseño de Interfaces Hombre-MaquinaUnidad 4 Diseño de Interfaces Hombre-Maquina
Unidad 4 Diseño de Interfaces Hombre-Maquinashaske99
 
1 sdn y algoritmos con material
1 sdn y algoritmos con material1 sdn y algoritmos con material
1 sdn y algoritmos con materialEnriquedelacruz
 
las competencias básicas como eje vertebrador del currículo
las competencias básicas como eje vertebrador del currículolas competencias básicas como eje vertebrador del currículo
las competencias básicas como eje vertebrador del currículoFlor Nuñez Nieto
 
Redacción de prototipos textuales
Redacción de prototipos textualesRedacción de prototipos textuales
Redacción de prototipos textualeswarrior_1955
 
Raquel corbi lectura_2
Raquel corbi lectura_2Raquel corbi lectura_2
Raquel corbi lectura_2maleysofi
 

Similar a Consulta método de descripción de escena (20)

Taller de lectura y escritura académicas 02 - la secuencia expositivo - exp...
Taller de lectura y escritura académicas   02 - la secuencia expositivo - exp...Taller de lectura y escritura académicas   02 - la secuencia expositivo - exp...
Taller de lectura y escritura académicas 02 - la secuencia expositivo - exp...
 
Minería de Opiniones
Minería de OpinionesMinería de Opiniones
Minería de Opiniones
 
Sesión de aprendizaje and5es
Sesión de aprendizaje and5esSesión de aprendizaje and5es
Sesión de aprendizaje and5es
 
La ciencia del texto
La ciencia del textoLa ciencia del texto
La ciencia del texto
 
Estrategias1 11 nivelescomprension
Estrategias1 11 nivelescomprensionEstrategias1 11 nivelescomprension
Estrategias1 11 nivelescomprension
 
Ronlf Enp9_3
Ronlf Enp9_3Ronlf Enp9_3
Ronlf Enp9_3
 
Prueba saber 2012 qué evalúa al grado tercero lenguaje y matemáticas
Prueba saber 2012 qué evalúa al grado tercero lenguaje y matemáticasPrueba saber 2012 qué evalúa al grado tercero lenguaje y matemáticas
Prueba saber 2012 qué evalúa al grado tercero lenguaje y matemáticas
 
Tipos de investigación
Tipos de investigaciónTipos de investigación
Tipos de investigación
 
3 b2 semana del 21 al 25 de noviembre
3 b2 semana del 21 al 25 de noviembre3 b2 semana del 21 al 25 de noviembre
3 b2 semana del 21 al 25 de noviembre
 
Secuencia didáctica 7 Geometría amalítica
Secuencia didáctica 7 Geometría amalíticaSecuencia didáctica 7 Geometría amalítica
Secuencia didáctica 7 Geometría amalítica
 
Presentacion Principal Taller Por Competencias
Presentacion Principal Taller Por CompetenciasPresentacion Principal Taller Por Competencias
Presentacion Principal Taller Por Competencias
 
Presentacionprincipaltallerporcompetencias
Presentacionprincipaltallerporcompetencias Presentacionprincipaltallerporcompetencias
Presentacionprincipaltallerporcompetencias
 
Unidad 4 Diseño de Interfaces Hombre-Maquina
Unidad 4 Diseño de Interfaces Hombre-MaquinaUnidad 4 Diseño de Interfaces Hombre-Maquina
Unidad 4 Diseño de Interfaces Hombre-Maquina
 
Webquest n°4
Webquest n°4Webquest n°4
Webquest n°4
 
1 sdn y algoritmos con material
1 sdn y algoritmos con material1 sdn y algoritmos con material
1 sdn y algoritmos con material
 
las competencias básicas como eje vertebrador del currículo
las competencias básicas como eje vertebrador del currículolas competencias básicas como eje vertebrador del currículo
las competencias básicas como eje vertebrador del currículo
 
Unidad 4 docentes colombianos
Unidad 4 docentes colombianosUnidad 4 docentes colombianos
Unidad 4 docentes colombianos
 
Redacción de prototipos textuales
Redacción de prototipos textualesRedacción de prototipos textuales
Redacción de prototipos textuales
 
T3 vbecerra 5d
T3 vbecerra 5dT3 vbecerra 5d
T3 vbecerra 5d
 
Raquel corbi lectura_2
Raquel corbi lectura_2Raquel corbi lectura_2
Raquel corbi lectura_2
 

Último

La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPELaura Chacón
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticosisabeltrejoros
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxjosetrinidadchavez
 
GLOSAS Y PALABRAS ACTO 2 DE ABRIL 2024.docx
GLOSAS  Y PALABRAS ACTO 2 DE ABRIL 2024.docxGLOSAS  Y PALABRAS ACTO 2 DE ABRIL 2024.docx
GLOSAS Y PALABRAS ACTO 2 DE ABRIL 2024.docxAleParedes11
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.DaluiMonasterio
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...JAVIER SOLIS NOYOLA
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSjlorentemartos
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFlor Idalia Espinoza Ortega
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscaeliseo91
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 

Último (20)

La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
Plan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPEPlan Año Escolar Año Escolar 2023-2024. MPPE
Plan Año Escolar Año Escolar 2023-2024. MPPE
 
texto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticostexto argumentativo, ejemplos y ejercicios prácticos
texto argumentativo, ejemplos y ejercicios prácticos
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
 
Unidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDIUnidad 3 | Teorías de la Comunicación | MCDI
Unidad 3 | Teorías de la Comunicación | MCDI
 
GLOSAS Y PALABRAS ACTO 2 DE ABRIL 2024.docx
GLOSAS  Y PALABRAS ACTO 2 DE ABRIL 2024.docxGLOSAS  Y PALABRAS ACTO 2 DE ABRIL 2024.docx
GLOSAS Y PALABRAS ACTO 2 DE ABRIL 2024.docx
 
La Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdfLa Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdf
 
Sesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdfSesión de clase: Defendamos la verdad.pdf
Sesión de clase: Defendamos la verdad.pdf
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS. Por JAVIER SOLIS ...
 
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOSTEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
TEMA 13 ESPAÑA EN DEMOCRACIA:DISTINTOS GOBIERNOS
 
Factores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamicaFactores ecosistemas: interacciones, energia y dinamica
Factores ecosistemas: interacciones, energia y dinamica
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fisca
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 

Consulta método de descripción de escena

  • 1. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010 Aprendizaje de la sintaxis para la descripci´n de escenas compuestas o por figuras geom´tricas∗ e David P´rez1 e Sergio Guadarrama1 1 European Centre for Soft Computing Mieres (Asturias), Espa˜a. n {david.perez, sergio.guadarrama}@softcomputing.es Resumen La forma en que las personas describimos los objetos de una escena tiene caracter´ ısticas particulares concretas. Nuestro trabajo ser´ a tratar de aprender estas caracter´ısticas. Para ello, primeramente necesitamos conocer la sintaxis de estas descripciones, motivo prin- cipal de este paper. El objetivo final ser´ des- a cribir nuevas escenas de forma autom´tica. a 1 Introducci´n o El trabajo aqu´ presentado est´ englobado dentro del ı a proyecto Smart-Bees, en el que se tratan de realizar descripciones autom´ticas de objetos presentes en una a escena. Las escenas est´n formadas por varios obje- a tos, por lo que las descripciones han de discriminar al elemento seleccionado de forma inequ´ ıvoca. Estas Figura 1: Ejemplo de imagen para describir escenas constar´n de distintos objetos geom´tricos co- a e loreados, dispuestos en un lienzo negro, como se puede ver en la figura 1. Uno de estos objetos, el que se debe del l´xico y de la sintaxis; las otras fases se explican en e describir, tiene el borde punteado para diferenciarlo el trabajo [1] (tambi´n presentado en esta conferencia). e del resto. Las frases recopiladas tienen distintas estructuras, y Para resolver este problema se han de cubrir distintas en las mismas los usuarios tratan de describir el ob- fases: obtenci´n de descripciones de objetos hechas o jeto de forma directa, haciendo referencia s´lo al ob- o por los usuarios; aprendizaje del l´xico y de la sin- e jeto descrito, o de forma indirecta, haciendo referencia taxis de estas frases; aprendizaje de la sem´ntica de a a alg´n otro objeto que sirva para aclarar posibles am- u las palabras utilizadas teniendo en cuenta las carac- big¨edades. u ter´ ısticas del objeto descrito; generaci´n de frases si- o Para llevar a cabo esta tarea, inicialmente, y tras la guiendo la sint´xis y sem´ntica previamente adquiri- a a recolecci´n de las frases, realizamos un clustering por o das; validaci´n de las frases generadas. o tipos de palabras, considerando unicamente las pala- ´ La parte del problema al que nos enfrentamos en este bras que tengan una frecuencia significativa. Una vez documento es el correspondiente a las primeras fases obtenidos estos grupos se crear´ una gram´tica que a a del aprendizaje; la obtenci´n de frases, el aprendizaje o reconozca las frases, con la cual se generar´n frases a ∗ que podr´n ser valoradas. Hemos probado distintos a Este trabajo ha sido financiado por la Fundaci´n para o el progreso del Soft Computing, el Ministerio de Ciencia e tipos de clusterings y de aprendizaje de gram´ticas a Innovaci´n Espa˜ol (MICINN) y el Fondo Social Europeo, o n para comprobar que combinaci´n nos da mejores re- o bajo el programa Juan de la Cierva JCI-2008-3531. sultados. XV Congreso Español Sobre Tecnologías y Lógica Fuzzy 49
  • 2. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010 Evaluar los resultados de las opciones contempladas evaluacion(frasesGeneradas,test); para cada caso ser´ una parte importante del docu- a mento, destacando, en base a estos resultados, la mejor A su vez, describiremos a continuaci´n las diferentes o opci´n en cada caso. o pasos, as´ como las alternativas barajadas en cada ı caso, de la siguiente forma: El problema de generar frases de forma autom´tica a para describir un objeto dentro de una escena, nuestro Filtrado de frases: Se han filtrado las frases te- objetivo global, ha sido estudiado por varios autores [2, niendo en cuenta unicamente las que ten´ un ´ ıan 3]. En [2] se describen de forma detallada las distintas n´mero de palabras igual o menor que 10. Las u fases del problema al que nos enfrentamos. frases de un tama˜o mayor a 10 se consideran n En cuanto a las distancias a emplear en el clustering, demasiado complejas como para ayudar al apren- el m´todo basado en proximidad de palabras, utilizado e dizaje. Con este filtrado se descartan un 5% de por los ni˜os en su aprendizaje, pueden verse descrip- n las frases. ciones del mismo en [6] y usos similares al que se le da Filtrado de palabras: Se consideran unicamente las ´ aqu´ en [3, 4, 7]. Por otra parte, las distancias basadas ı palabras que ten´ una frecuencia mayor o igual ıan en coocurrencias puede verse en [9]. a 10, para evitar palabras poco representativas o Finalmente, los algoritmos de aprendizaje de gram´- a con errores. ticas utilizados pueden verse en los documentos [3, 5]. Generaci´n de conjuntos de entrenamiento y test: o Para ello realizamos dos tipos de divisi´n. Una o Este documento comienza con un resumen de los pun- en la que se utilizar´n todas las frases para entre- a tos claves del trabajo y de las soluciones adoptadas en namiento y validaci´n; y otra en la que dividire- o cada uno de estos casos. Pasamos, posteriormente, a mos los datos disponibles 80% para entrenamiento mostrar y valorar los resultados, dejando, finalmente, y el 20% restante para evaluar lo aprendido. un apartado de conclusiones y trabajo a realizar en el Formaci´n de clases de palabras: Se han com- o futuro. parado dos tipos de formaci´n de clases depen- o diendo de como se construyen las distancias entre 2 Propuesta las palabras: seg´n las coocurrencias de palabras u en la misma frase y otra en funci´n de la proxim- o 2.1 Recolecci´n de datos o idad de las mismas. Esta cuesti´n ser´ abordada o a m´s a fondo en el apartado 3. a La obtenci´n de descripciones de objetos de una escena o se realiza a trav´s del portal e Aprendizaje de gram´ticas: Se han probado cua- a tro algoritmos que aprenden gram´ticas: entre- a http://www3.softcomputing.es/smart-bees nando a una cadena de Markov con las secuen- cias de palabras presentes en los datos; entre- En ´ste se presenta un apartado, “Describe images”, en e nando a una cadena de Markov con las secuencias el que los usuarios pueden realizar las descripciones en de clases previamente creadas; escogiendo una es- ingl´s de un objeto seleccionado dentro de una escena, e tructura al azar de las presentes en los datos de en- que ha sido generada de forma aleatoria. Hay 350 trenamiento; finalmente generando el bigrama de escenas que contienen 7 objetos con formas, colores y probabilidades de que despu´s de una clase venga e posiciones distintas. otra. Se explicar´ con m´s detalle este punto en a a Se han recogido 360 frases, con las que se realizar´ el a la secci´n 4. o entrenamiento, de 34 usuarios distintos. Generaci´n de frases: Una vez generada la gram´- o a Tras estudiar el problema del an´lisis sint´ctico vamos a a tica correspondiente en cada caso pasaremos a a mostrar los pasos relevantes que hemos seguido en generar las frases haciendo uso de esta gram´tica. a pseudo-codigo: Para ello tenemos dos tipos, utilizar directamente la salida de la secuencia de palabras que nos de carga(frases, palabras); la gram´tica, para el caso de cadena de Markov a frases=filtrado(frases); de secuencias de palabras, o convertir la secuen- palabras=filtrado(palabras); cia de clases a palabras utilizando el m´todo de e [train test]=separacion(frases); Monte Carlo [10] de acuerdo con la frecuencia de clases=clustering(palabras,train); las palabras de cada clase, utilizada para el resto gramatica=train_gramatica(clases,train); de aprendizajes de gram´ticas. Se ver´ m´s a a a a frasesGeneradas=generar_frases(gramatica,train); fondo en el punto 5. 50 XV Congreso Español Sobre Tecnologías y Lógica Fuzzy
  • 3. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010 3 Formaci´n de clases de palabras o 𝑅(𝑤𝑖 , 𝑤𝑗 ) 𝐷(𝑤𝑖 , 𝑤𝑗 ) = Agruparemos una serie de datos, en nuestro caso con- 𝑚𝑖𝑛(𝑆(𝑤𝑖 ), 𝑆(𝑤𝑗 )) + 1 creto palabras, de acuerdo con un criterio de cercan´ ıa Finalmente esta matriz se acota entre 0 y 1 dividiendo y utilizando un clustering jer´rquico, en el que se van a todos los valores por el m´ximo valor de la misma. a juntando las palabras m´s pr´ximas de forma itera- a o tiva. Esta cercan´ se define en t´rminos de una de- ıa e Una vez hecho esto, la matriz de distancias ser´ pasada a terminada funci´n de distancia. o a una funci´n de clustering jer´rquico que ir´ agru- o a a pando las palabras m´s cercanas primero. Se han a Pasamos ahora a describir las distancias utilizadas probado, no obstante, varios par´metros de entrada a para realizar el clustering jer´rquico que agrupa las a a esta funci´n de clustering para comprobar cual nos o palabras en clases. Como anticipo podemos decir que da el mejor resultado. utilizamos medidas de distancia que unicamente se ´ centran en el orden y aparici´n de dichas palabras en o Obteniendo las siguientes clases al aplicar el clustering las frases dadas. Tendremos una distancia basada en con esta distancia: coocurrencias y otra basada en la proximidad de las Clase 1 = { TOP, OVAL, ELLIPSE, BIG } palabras dentro de la frase. Clase 2 = { BOTTOM, YELLOW } Clase 3 = { LEFT, SQUARE } Clase 4 = { ON, IN, AT, BEHIND } 3.1 Distancia basada en coocurrencias Clase 5 = { CIRCLE, TRIANGLE, RECTANGLE } Palabras que desempe˜an el mismo papel en una frase n Clase 6 = { THE } tienden a ocurrir de modo excluyente, es decir, dos Clase 7 = { LIGHT, BACKGROUND, A, RIGHT, palabras que pertenecen a la misma clase no suelen DARK, FRONT, PURPLE } aparecer en la misma frase. Por ejemplo, palabras que Clase 8 = { PINK, BLUE, GREEN, ORANGE, RED, hagan referencia a la forma no ser´ com´n encontrarlas a u VIOLET, BROWN } a la vez en una frase, al menos en las descripciones directas. Se trata de asignar una distancia baja, por tanto facilidad para que se encuentren dentro de la 3.2 Distancia basada en la proximidad de las misma clase, a aquellas palabras que aparezcan pocas palabras veces en la misma frase. Esta forma de c´lculo de distancias va m´s all´ de a a a Denotaremos el conjunto de M descripciones como la coocurrencia de las palabras en la misma frase 𝑈 = 𝑢1 , 𝑢2 , . . . , 𝑢𝑀 . Las palabras de todo el vocab- y tambi´n considera que las palabras se encuentren e ulario ser´n representadas por 𝑊 = 𝑤1 , 𝑤2 , . . . , 𝑤𝑁 a pr´ximas en las frases en las que aparecen, haciendo o con N el n´mero de palabras del vocabulario mane- u que estas palabras sean clasificadas en distintos gru- jadas. Definimos tambi´n 𝑆(𝑤𝑖 ) como el n´mero de e u pos. apariciones de la palabra 𝑤𝑖 en todas las descripciones dadas en 𝑈 . Como se define en [2], un indicador de Los c´lculos realizados son similares a los del caso de a coocurrencia de palabras es: la distancia basada en coocurrencias, salvo que para la funci´n 𝑅 y 𝜋 se calculan de la siguiente forma: o ∑ 𝑅𝑙 (𝑤𝑖 , 𝑤𝑗 ) = 𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 , 𝑙) { 1 𝑠𝑖 𝑤𝑖 𝑦 𝑤𝑗 𝑎𝑝𝑎𝑟𝑒𝑐𝑒𝑛 𝑒𝑛 𝑢 𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 ) = 𝑢∈𝑈 0 𝑠𝑖𝑛𝑜 ⎧ Bas´ndonos en 𝜋 obtenemos la matriz R de coocurren- a ⎨ 1 𝑠𝑖 𝑤𝑖 𝑦 𝑤𝑗 𝑜𝑐𝑢𝑟𝑟𝑒𝑛 𝑒𝑛 𝑢 cias de la siguiente forma: 𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 , 𝑙) = 𝑦 𝑠𝑢𝑠 𝑝𝑜𝑠𝑖𝑐𝑖𝑜𝑛𝑒𝑠 𝑑𝑖𝑠𝑡𝑎𝑛 𝑙 0 𝑠𝑖𝑛𝑜 ⎩ ∑ 𝑅(𝑤𝑖 , 𝑤𝑗 ) = 𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 ) 𝑢∈𝑈 Como concluyeron los autores de [4], las palabras pr´ximas m´s relevantes son las dos precedentes y las o a dos siguientes (l={ -2, -1, 1, 2 }) y por tanto as´ lo ı Una vez calculada esta matriz, pasamos ahora a cal- hemos hecho en este trabajo. cular una matriz de distancias entre palabras, 𝐷, que ser´ la base de c´lculo de los distintos clusters en los a a Por ejemplo, para u={“the blue rectangle”} la llamada que se dividir´n las palabras. La misma ser´ calculada a a 𝜋(u,“the”,“rectangle”,2)=1 ya que sus posiciones dis- como: (diferiendo con la dada en [2] en este caso) tan 2, 𝜋(u,“the”,“blue”,1)=1, ... XV Congreso Español Sobre Tecnologías y Lógica Fuzzy 51
  • 4. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010 La distancia utilizada en este caso es la del coseno 4.3 Patrones de las frases de entrenamiento De todas las frases de entrenamiento se coger´ de a ∑ forma aleatoria una de las estructuras de clases all´ ı min(𝑅𝑙 (𝑤𝑖 , 𝑤𝑘 ), 𝑅𝑙 (𝑤𝑗 , 𝑤𝑘 )) presentes. 𝑤𝑘 ∈𝑊 𝐷(𝑤𝑖 , 𝑤𝑗 ) = √ ∑ El coste computacional de este m´todo es muy bajo. e √ ∑ 𝑅𝑙 (𝑤𝑖 , 𝑤𝑘 ) + 𝑅𝑙 (𝑤𝑗 , 𝑤𝑘 ) 𝑤𝑘 ∈𝑊 𝑤𝑘 ∈𝑊 4.4 Utilizaci´n del bigrama de o probabilidades de clases Obtenemos las siguientes clases al aplicar este m´todo e a los datos manejados: En este caso se construye un bigrama con las probabil- Clase 1 = { THE, A } idades de transici´n de ir de una clase a otra, de forma o Clase 2 = { BACKGROUND, FRONT } similar a lo expuesto en [2]. Se muestra un ejemplo de Clase 3 = { CIRCLE, OVAL, TRIANGLE, RECTAN- este tipo de bigramas en la figura 2. En ´ste los no- e GLE, ELLIPSE, SQUARE } dos S y E son los correspondientes a principio y fin de Clase 4 = { ON, IN, AT, BEHIND } sentencia respectivamente, mientras que los n´meros u Clase 5 = { LIGHT, BIG, DARK } representan las clases de palabras, en este caso son las Clase 6 = { TOP, BOTTOM, RIGHT, LEFT } mostradas en el apartado 3.2, generadas con la distan- Clase 7 = { PINK, BLUE, GREEN, ORANGE, RED, cia basada en la proximidad. YELLOW, PURPLE, VIOLET, BROWN } 4 Aprendizaje de gram´ticas a A la hora de aprender las gram´ticas que describan la a sintaxis se han contemplado cuatro opciones, una que proporciona una gram´tica implicita y otras tres que a proporcionan una gram´tica expl´ a ıcita. Se pondr´ a a prueba a las mismas para decidir cual nos proporciona la mejor soluci´n. o 4.1 Aprendizaje cadena de Markov con secuencias de palabras Utilizando todas las secuencias de palabras que nos proporcionan los datos de entrenamiento aprendemos una cadena de Markov que generar´ frases como se- a cuencias de palabras. Al generar frases de este modo, el coste computacional ser´ muy alto, e incluso el algoritmo en muchos casos a no llega a converger. 4.2 Aprendizaje cadena de Markov con secuencias de clases Al igual que en la anterior soluci´n aprendemos una ca- o dena de Markov, aunque en este caso con los datos de Figura 2: Ejemplo de bigrama de probabilidades de las clases de las frases de entrenamiento, en vez de las clases palabras. Al producirse m´s frecuentemente una se- a cuencia concreta de clases que de palabras esta opci´n o Una vez construido este bigrama utilizaremos la matriz nos proporcionar´, a priori, mejores resultados que la a asociada al mismo como matriz de transici´n de una o previa. cadena de Markov que nos dar´ secuencias de clases. a El coste computacional de esta opci´n es alto y las o La complejidad computacional de este m´todo es me- e frases tendr´n un tama˜o no prefijado. a n dia. 52 XV Congreso Español Sobre Tecnologías y Lógica Fuzzy
  • 5. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010 5 Generaci´n de frases o para el caso de las distancias basadas en la proximidad de las palabras. Para el caso del aprendizaje de una cadena de Markov con secuencias de palabras esta generaci´n es directa o Algoritmos Precisi´n o Recall utilizando la secuencia de palabras que genere la ca- Markov palabras 0.076±0.026 0.037±0.009 dena de Markov. Markov clases 0.028±0.017 0.024±0.008 En el resto de casos se utilizar´ el m´todo de Monte a e Patrones 0.032±0.015 0.027±0.007 Carlo [10] para determinar que palabra utilizar en cada Bigrama 0.034±0.019 0.023±0.007 clase, en funci´n de la frecuencia de aparici´n de las o o Media 0.043±0.028 0.028±0.009 palabras con respecto a las dem´s palabras en su clase. a Algunos ejemplos de frecuencias de palabras dentro de Tabla 1: Comparativa de algoritmos de generaci´n de o su clase, para las clases de la secci´n 3.2, son: o frases con clases basadas en coocurrencia. Clase 1 = { THE [88%], A [12%]} Clase 2 = { BACKGROUND [49%], FRONT [51%]} Algoritmos Precisi´n o Recall Clase 3 = { CIRCLE [21%], OVAL [6%], ... } ... Markov palabras 0.089±0.026 0.040±0.009 Markov clases 0.065±0.027 0.032±0.008 6 Resultados Patrones 0.088±0.019 0.043±0.007 Bigrama 0.114±0.025 0.042±0.007 En esta secci´n se presentar´n brevemente los resul- o a Media 0.089±0.030 0.039±0.009 tados obtenidos con los algoritmos antes expuestos y comparando las distintas alternativas barajadas. Para Tabla 2: Comparativa de algoritmos de generaci´n de o estas pruebas se han evaluado las frases generadas en frases con clases basadas en proximidad de palabras. cada caso en funci´n de precisi´n y recall de los mis- o o mos: Seguidamente, para comprobar la convergencia de los resultados obtenidos, utilizando todos los datos para Precisi´n : Es una medida de exactitud o fidelidad. o entrenar y validar, se han calculado los recall y pre- En nuestro caso ser´ el porcentaje de frases del a cisi´n, al generar 100, 1.000, 10.000, 100.000, 1.000.000 o conjunto de las generadas que son reproducciones frases, con las distancias basadas en proximidad. Se exactas de, al menos, una frase de entrenamiento. pueden ver las evoluciones de la precisi´n en la figura o Una precisi´n del 1.0 signifar´ que todas las frases o ıa 3 y del recall en la figura 4 generadas est´n presentes en los datos de entre- a namiento. Recall : Es una medida de completitud. Para el caso que nos centramos, consistir´ en el porcentaje de a frases de entrenamiento que el sistema es capaz de generar. Un recall de 1.0 se dar´ en el caso de que ıa todos los datos de entrenamiento son generados por el sistema al menos una vez. Como una primera prueba, se han realizado 100 repeti- ciones de 1000 frases generadas, utilizando un 80% de las frases disponibles para entrenar y el 20% restante para validar las generadas, utilizando los 2 tipos de distancias para el clustering y las 4 formas de apren- dizaje de gram´ticas mencionadas. Estas frases han a sido evaluadas de forma autom´tica obteniendo resul- a Figura 3: Evoluci´n de la precisi´n. o o tados de precisi´n y recall. o En la tabla 1 presentamos la media y la desviaci´n o Finalmente, han sido generadas 100 frases para eval- t´ ıpica de las 100 repeticiones al generar 1000 frases uar su correcci´n sint´ctica manualmente por dos per- o a con los cuatro algoritmos de generaci´n de frases an- o sonas con los 3 mejores m´todos de aprendizajes de e teriormente introducidos para la distancia basada en gram´ticas y utilizando para realizar el clustering la a coocurrencias. Y en la tabla 2 mostramos los mismos distancia basada en la proximidad de las palabras, que XV Congreso Español Sobre Tecnologías y Lógica Fuzzy 53
  • 6. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010 soluci´n para construir frases sint´cticamente correc- o a tas (88%) es utilizar la distancia basada en la proximi- dad de palabras para crear las clases de palabras y, uti- lizar patrones extraidos de los datos de entrenamiento. La segunda mejor combinaci´n es la de utilizar el bi- o grama de probabilidades, junto con la distancia basada en proximidad, ya que se obtinen unos resultados cer- canos a la mejor opci´n estudiada (79%). o Como se indica al inicio del documento, el trabajo aqu´ realizado pertenece a la b´squeda de un obje- ı u tivo m´s ambicioso de describir objetos dentro de una a imagen de forma adecuada, por lo que generar frases sint´cticamente correctas no es suficiente, sino que a deben ser sem´nticamente correctas. a Figura 4: Evoluci´n del recall. o La generaci´n de frases compuestas, donde se hace ref- o erencia a m´s de un objeto, queda como trabajo fu- a turo. Ya que existir´n casos donde los objetos que a obtiene mejores resultados que la basada en coocurren- acompa˜an al que se debe describir tendr´n carac- n a cias. Estos resultados se pueden ver resumidos en la ter´ ısticas similares al seleccionado por lo que la frase tabla 3. ha de ser m´s compleja. a Algoritmos Porcentaje de frases correctas Markov palabras 0.68 Referencias Patrones 0.88 [1] Sergio Guadarrama, David P´rez. Learning Se- e Bigrama 0.79 mantic Models from Descriptions of Shapes made by Web-Users. 2009. Tabla 3: Resumen de resultados obtenidos manual- mente. [2] Deb K. Roy. Learning Visually-Grounded Words and Syntax for a Scene Description Task. 2002. [3] Peter Gorniak, Deb Roy. Grounded Semantic 7 An´lisis de resultados a Composition for Visual Scenes. 2004. Como se puede apreciar en las tablas 1 y 2 existe una [4] Martin Redington, Nick Chater, Steven Finch. mejora al utilizar la distancia basada en la proximi- Distributional Information: A Powerful Cue for dad de palabras para todos los tipos de aprendizaje de Acquiring Syntactic Categories. 1998. gram´ticas. a [5] Zach Solan, David Horn, Eytan Ruppin. Unsu- Al comparar las frases generadas por los cuatro pervised Learning of natural languages. 2005. m´todos de aprendizaje de gram´ticas con los datos e a de test, puede verse en las figuras 3 y 4 que el m´todo e [6] Steven Finch, Nick Chater. Distributional Boot- de aprender una cadena de Markov con las clases ob- strapping: From Word Class to Proto-Sentence. tiene los peores resultados. Y que los otros 3 m´todos e 1994. obtienen unos resultados muy similares para todos el- [7] Fernando Pereira, Naftali Tishby, Lillian Lee. Dis- los. tributional Clustering of English Words. 1993. Al comparar las frases generadas por los otros 3 [8] Percy Liang, Michael I. Jordan, Dan Klein. Learn- m´todos de forma manual, tabla 3, los mejores resul- e ing Semantic Correspondences with Less Supervi- tados se obtienen con el m´todo basado en utilizar e sion. 2009. patrones del conjunto de entrenamiento. [9] Thomas Hofmann. Unsupervised Learning by 8 Conclusi´n y trabajo futuro o Probabilistic Latent Semantic Analysis. 2001. [10] Nicholas Metropolis, Stanislaw Ulman. The Al analizar todos las pruebas realizadas con las distin- Monte Carlo Method. 1949. tas distancias de clustering y los distintos m´todos de e aprendizaje de gram´ticas concluimos que la merjor a 54 XV Congreso Español Sobre Tecnologías y Lógica Fuzzy