el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
Consulta método de descripción de escena
1. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010
Aprendizaje de la sintaxis para la descripci´n de escenas compuestas
o
por figuras geom´tricas∗
e
David P´rez1
e Sergio Guadarrama1
1
European Centre for Soft Computing
Mieres (Asturias), Espa˜a.
n
{david.perez, sergio.guadarrama}@softcomputing.es
Resumen
La forma en que las personas describimos los
objetos de una escena tiene caracter´ ısticas
particulares concretas. Nuestro trabajo ser´ a
tratar de aprender estas caracter´ısticas. Para
ello, primeramente necesitamos conocer la
sintaxis de estas descripciones, motivo prin-
cipal de este paper. El objetivo final ser´ des-
a
cribir nuevas escenas de forma autom´tica.
a
1 Introducci´n
o
El trabajo aqu´ presentado est´ englobado dentro del
ı a
proyecto Smart-Bees, en el que se tratan de realizar
descripciones autom´ticas de objetos presentes en una
a
escena. Las escenas est´n formadas por varios obje-
a
tos, por lo que las descripciones han de discriminar
al elemento seleccionado de forma inequ´ ıvoca. Estas Figura 1: Ejemplo de imagen para describir
escenas constar´n de distintos objetos geom´tricos co-
a e
loreados, dispuestos en un lienzo negro, como se puede
ver en la figura 1. Uno de estos objetos, el que se debe del l´xico y de la sintaxis; las otras fases se explican en
e
describir, tiene el borde punteado para diferenciarlo el trabajo [1] (tambi´n presentado en esta conferencia).
e
del resto.
Las frases recopiladas tienen distintas estructuras, y
Para resolver este problema se han de cubrir distintas en las mismas los usuarios tratan de describir el ob-
fases: obtenci´n de descripciones de objetos hechas
o jeto de forma directa, haciendo referencia s´lo al ob-
o
por los usuarios; aprendizaje del l´xico y de la sin-
e jeto descrito, o de forma indirecta, haciendo referencia
taxis de estas frases; aprendizaje de la sem´ntica de
a a alg´n otro objeto que sirva para aclarar posibles am-
u
las palabras utilizadas teniendo en cuenta las carac- big¨edades.
u
ter´
ısticas del objeto descrito; generaci´n de frases si-
o
Para llevar a cabo esta tarea, inicialmente, y tras la
guiendo la sint´xis y sem´ntica previamente adquiri-
a a
recolecci´n de las frases, realizamos un clustering por
o
das; validaci´n de las frases generadas.
o
tipos de palabras, considerando unicamente las pala-
´
La parte del problema al que nos enfrentamos en este bras que tengan una frecuencia significativa. Una vez
documento es el correspondiente a las primeras fases obtenidos estos grupos se crear´ una gram´tica que
a a
del aprendizaje; la obtenci´n de frases, el aprendizaje
o reconozca las frases, con la cual se generar´n frases
a
∗ que podr´n ser valoradas. Hemos probado distintos
a
Este trabajo ha sido financiado por la Fundaci´n para
o
el progreso del Soft Computing, el Ministerio de Ciencia e tipos de clusterings y de aprendizaje de gram´ticas
a
Innovaci´n Espa˜ol (MICINN) y el Fondo Social Europeo,
o n para comprobar que combinaci´n nos da mejores re-
o
bajo el programa Juan de la Cierva JCI-2008-3531. sultados.
XV Congreso Español Sobre Tecnologías y Lógica Fuzzy 49
2. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010
Evaluar los resultados de las opciones contempladas evaluacion(frasesGeneradas,test);
para cada caso ser´ una parte importante del docu-
a
mento, destacando, en base a estos resultados, la mejor A su vez, describiremos a continuaci´n las diferentes
o
opci´n en cada caso.
o pasos, as´ como las alternativas barajadas en cada
ı
caso, de la siguiente forma:
El problema de generar frases de forma autom´tica a
para describir un objeto dentro de una escena, nuestro Filtrado de frases: Se han filtrado las frases te-
objetivo global, ha sido estudiado por varios autores [2, niendo en cuenta unicamente las que ten´ un
´ ıan
3]. En [2] se describen de forma detallada las distintas n´mero de palabras igual o menor que 10. Las
u
fases del problema al que nos enfrentamos. frases de un tama˜o mayor a 10 se consideran
n
En cuanto a las distancias a emplear en el clustering, demasiado complejas como para ayudar al apren-
el m´todo basado en proximidad de palabras, utilizado
e dizaje. Con este filtrado se descartan un 5% de
por los ni˜os en su aprendizaje, pueden verse descrip-
n las frases.
ciones del mismo en [6] y usos similares al que se le da Filtrado de palabras: Se consideran unicamente las
´
aqu´ en [3, 4, 7]. Por otra parte, las distancias basadas
ı palabras que ten´ una frecuencia mayor o igual
ıan
en coocurrencias puede verse en [9]. a 10, para evitar palabras poco representativas o
Finalmente, los algoritmos de aprendizaje de gram´- a con errores.
ticas utilizados pueden verse en los documentos [3, 5].
Generaci´n de conjuntos de entrenamiento y test:
o
Para ello realizamos dos tipos de divisi´n. Una
o
Este documento comienza con un resumen de los pun- en la que se utilizar´n todas las frases para entre-
a
tos claves del trabajo y de las soluciones adoptadas en namiento y validaci´n; y otra en la que dividire-
o
cada uno de estos casos. Pasamos, posteriormente, a mos los datos disponibles 80% para entrenamiento
mostrar y valorar los resultados, dejando, finalmente, y el 20% restante para evaluar lo aprendido.
un apartado de conclusiones y trabajo a realizar en el
Formaci´n de clases de palabras: Se han com-
o
futuro.
parado dos tipos de formaci´n de clases depen-
o
diendo de como se construyen las distancias entre
2 Propuesta las palabras: seg´n las coocurrencias de palabras
u
en la misma frase y otra en funci´n de la proxim-
o
2.1 Recolecci´n de datos
o idad de las mismas. Esta cuesti´n ser´ abordada
o a
m´s a fondo en el apartado 3.
a
La obtenci´n de descripciones de objetos de una escena
o
se realiza a trav´s del portal
e Aprendizaje de gram´ticas: Se han probado cua-
a
tro algoritmos que aprenden gram´ticas: entre-
a
http://www3.softcomputing.es/smart-bees nando a una cadena de Markov con las secuen-
cias de palabras presentes en los datos; entre-
En ´ste se presenta un apartado, “Describe images”, en
e nando a una cadena de Markov con las secuencias
el que los usuarios pueden realizar las descripciones en de clases previamente creadas; escogiendo una es-
ingl´s de un objeto seleccionado dentro de una escena,
e tructura al azar de las presentes en los datos de en-
que ha sido generada de forma aleatoria. Hay 350 trenamiento; finalmente generando el bigrama de
escenas que contienen 7 objetos con formas, colores y probabilidades de que despu´s de una clase venga
e
posiciones distintas. otra. Se explicar´ con m´s detalle este punto en
a a
Se han recogido 360 frases, con las que se realizar´ el
a la secci´n 4.
o
entrenamiento, de 34 usuarios distintos. Generaci´n de frases: Una vez generada la gram´-
o a
Tras estudiar el problema del an´lisis sint´ctico vamos
a a tica correspondiente en cada caso pasaremos a
a mostrar los pasos relevantes que hemos seguido en generar las frases haciendo uso de esta gram´tica.
a
pseudo-codigo: Para ello tenemos dos tipos, utilizar directamente
la salida de la secuencia de palabras que nos de
carga(frases, palabras); la gram´tica, para el caso de cadena de Markov
a
frases=filtrado(frases); de secuencias de palabras, o convertir la secuen-
palabras=filtrado(palabras); cia de clases a palabras utilizando el m´todo de
e
[train test]=separacion(frases); Monte Carlo [10] de acuerdo con la frecuencia de
clases=clustering(palabras,train); las palabras de cada clase, utilizada para el resto
gramatica=train_gramatica(clases,train); de aprendizajes de gram´ticas. Se ver´ m´s a
a a a
frasesGeneradas=generar_frases(gramatica,train); fondo en el punto 5.
50 XV Congreso Español Sobre Tecnologías y Lógica Fuzzy
3. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010
3 Formaci´n de clases de palabras
o
𝑅(𝑤𝑖 , 𝑤𝑗 )
𝐷(𝑤𝑖 , 𝑤𝑗 ) =
Agruparemos una serie de datos, en nuestro caso con- 𝑚𝑖𝑛(𝑆(𝑤𝑖 ), 𝑆(𝑤𝑗 )) + 1
creto palabras, de acuerdo con un criterio de cercan´ ıa
Finalmente esta matriz se acota entre 0 y 1 dividiendo
y utilizando un clustering jer´rquico, en el que se van
a
todos los valores por el m´ximo valor de la misma.
a
juntando las palabras m´s pr´ximas de forma itera-
a o
tiva. Esta cercan´ se define en t´rminos de una de-
ıa e Una vez hecho esto, la matriz de distancias ser´ pasada
a
terminada funci´n de distancia.
o a una funci´n de clustering jer´rquico que ir´ agru-
o a a
pando las palabras m´s cercanas primero. Se han
a
Pasamos ahora a describir las distancias utilizadas
probado, no obstante, varios par´metros de entrada
a
para realizar el clustering jer´rquico que agrupa las
a
a esta funci´n de clustering para comprobar cual nos
o
palabras en clases. Como anticipo podemos decir que
da el mejor resultado.
utilizamos medidas de distancia que unicamente se
´
centran en el orden y aparici´n de dichas palabras en
o Obteniendo las siguientes clases al aplicar el clustering
las frases dadas. Tendremos una distancia basada en con esta distancia:
coocurrencias y otra basada en la proximidad de las Clase 1 = { TOP, OVAL, ELLIPSE, BIG }
palabras dentro de la frase. Clase 2 = { BOTTOM, YELLOW }
Clase 3 = { LEFT, SQUARE }
Clase 4 = { ON, IN, AT, BEHIND }
3.1 Distancia basada en coocurrencias
Clase 5 = { CIRCLE, TRIANGLE, RECTANGLE }
Palabras que desempe˜an el mismo papel en una frase
n Clase 6 = { THE }
tienden a ocurrir de modo excluyente, es decir, dos Clase 7 = { LIGHT, BACKGROUND, A, RIGHT,
palabras que pertenecen a la misma clase no suelen DARK, FRONT, PURPLE }
aparecer en la misma frase. Por ejemplo, palabras que Clase 8 = { PINK, BLUE, GREEN, ORANGE, RED,
hagan referencia a la forma no ser´ com´n encontrarlas
a u VIOLET, BROWN }
a la vez en una frase, al menos en las descripciones
directas. Se trata de asignar una distancia baja, por
tanto facilidad para que se encuentren dentro de la 3.2 Distancia basada en la proximidad de las
misma clase, a aquellas palabras que aparezcan pocas palabras
veces en la misma frase.
Esta forma de c´lculo de distancias va m´s all´ de
a a a
Denotaremos el conjunto de M descripciones como la coocurrencia de las palabras en la misma frase
𝑈 = 𝑢1 , 𝑢2 , . . . , 𝑢𝑀 . Las palabras de todo el vocab- y tambi´n considera que las palabras se encuentren
e
ulario ser´n representadas por 𝑊 = 𝑤1 , 𝑤2 , . . . , 𝑤𝑁
a pr´ximas en las frases en las que aparecen, haciendo
o
con N el n´mero de palabras del vocabulario mane-
u que estas palabras sean clasificadas en distintos gru-
jadas. Definimos tambi´n 𝑆(𝑤𝑖 ) como el n´mero de
e u pos.
apariciones de la palabra 𝑤𝑖 en todas las descripciones
dadas en 𝑈 . Como se define en [2], un indicador de Los c´lculos realizados son similares a los del caso de
a
coocurrencia de palabras es: la distancia basada en coocurrencias, salvo que para
la funci´n 𝑅 y 𝜋 se calculan de la siguiente forma:
o
∑
𝑅𝑙 (𝑤𝑖 , 𝑤𝑗 ) = 𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 , 𝑙)
{
1 𝑠𝑖 𝑤𝑖 𝑦 𝑤𝑗 𝑎𝑝𝑎𝑟𝑒𝑐𝑒𝑛 𝑒𝑛 𝑢
𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 ) = 𝑢∈𝑈
0 𝑠𝑖𝑛𝑜
⎧
Bas´ndonos en 𝜋 obtenemos la matriz R de coocurren-
a ⎨ 1 𝑠𝑖 𝑤𝑖 𝑦 𝑤𝑗 𝑜𝑐𝑢𝑟𝑟𝑒𝑛 𝑒𝑛 𝑢
cias de la siguiente forma: 𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 , 𝑙) = 𝑦 𝑠𝑢𝑠 𝑝𝑜𝑠𝑖𝑐𝑖𝑜𝑛𝑒𝑠 𝑑𝑖𝑠𝑡𝑎𝑛 𝑙
0 𝑠𝑖𝑛𝑜
⎩
∑
𝑅(𝑤𝑖 , 𝑤𝑗 ) = 𝜋(𝑢, 𝑤𝑖 , 𝑤𝑗 )
𝑢∈𝑈 Como concluyeron los autores de [4], las palabras
pr´ximas m´s relevantes son las dos precedentes y las
o a
dos siguientes (l={ -2, -1, 1, 2 }) y por tanto as´ lo
ı
Una vez calculada esta matriz, pasamos ahora a cal-
hemos hecho en este trabajo.
cular una matriz de distancias entre palabras, 𝐷, que
ser´ la base de c´lculo de los distintos clusters en los
a a Por ejemplo, para u={“the blue rectangle”} la llamada
que se dividir´n las palabras. La misma ser´ calculada
a a 𝜋(u,“the”,“rectangle”,2)=1 ya que sus posiciones dis-
como: (diferiendo con la dada en [2] en este caso) tan 2, 𝜋(u,“the”,“blue”,1)=1, ...
XV Congreso Español Sobre Tecnologías y Lógica Fuzzy 51
4. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010
La distancia utilizada en este caso es la del coseno 4.3 Patrones de las frases de entrenamiento
De todas las frases de entrenamiento se coger´ de
a
∑ forma aleatoria una de las estructuras de clases all´
ı
min(𝑅𝑙 (𝑤𝑖 , 𝑤𝑘 ), 𝑅𝑙 (𝑤𝑗 , 𝑤𝑘 ))
presentes.
𝑤𝑘 ∈𝑊
𝐷(𝑤𝑖 , 𝑤𝑗 ) = √ ∑
El coste computacional de este m´todo es muy bajo.
e
√ ∑
𝑅𝑙 (𝑤𝑖 , 𝑤𝑘 ) + 𝑅𝑙 (𝑤𝑗 , 𝑤𝑘 )
𝑤𝑘 ∈𝑊 𝑤𝑘 ∈𝑊
4.4 Utilizaci´n del bigrama de
o
probabilidades de clases
Obtenemos las siguientes clases al aplicar este m´todo
e
a los datos manejados: En este caso se construye un bigrama con las probabil-
Clase 1 = { THE, A } idades de transici´n de ir de una clase a otra, de forma
o
Clase 2 = { BACKGROUND, FRONT } similar a lo expuesto en [2]. Se muestra un ejemplo de
Clase 3 = { CIRCLE, OVAL, TRIANGLE, RECTAN- este tipo de bigramas en la figura 2. En ´ste los no-
e
GLE, ELLIPSE, SQUARE } dos S y E son los correspondientes a principio y fin de
Clase 4 = { ON, IN, AT, BEHIND } sentencia respectivamente, mientras que los n´meros
u
Clase 5 = { LIGHT, BIG, DARK } representan las clases de palabras, en este caso son las
Clase 6 = { TOP, BOTTOM, RIGHT, LEFT } mostradas en el apartado 3.2, generadas con la distan-
Clase 7 = { PINK, BLUE, GREEN, ORANGE, RED, cia basada en la proximidad.
YELLOW, PURPLE, VIOLET, BROWN }
4 Aprendizaje de gram´ticas
a
A la hora de aprender las gram´ticas que describan la
a
sintaxis se han contemplado cuatro opciones, una que
proporciona una gram´tica implicita y otras tres que
a
proporcionan una gram´tica expl´
a ıcita. Se pondr´ a
a
prueba a las mismas para decidir cual nos proporciona
la mejor soluci´n.
o
4.1 Aprendizaje cadena de Markov con
secuencias de palabras
Utilizando todas las secuencias de palabras que nos
proporcionan los datos de entrenamiento aprendemos
una cadena de Markov que generar´ frases como se-
a
cuencias de palabras.
Al generar frases de este modo, el coste computacional
ser´ muy alto, e incluso el algoritmo en muchos casos
a
no llega a converger.
4.2 Aprendizaje cadena de Markov con
secuencias de clases
Al igual que en la anterior soluci´n aprendemos una ca-
o
dena de Markov, aunque en este caso con los datos de Figura 2: Ejemplo de bigrama de probabilidades de
las clases de las frases de entrenamiento, en vez de las clases
palabras. Al producirse m´s frecuentemente una se-
a
cuencia concreta de clases que de palabras esta opci´n
o Una vez construido este bigrama utilizaremos la matriz
nos proporcionar´, a priori, mejores resultados que la
a asociada al mismo como matriz de transici´n de una
o
previa. cadena de Markov que nos dar´ secuencias de clases.
a
El coste computacional de esta opci´n es alto y las
o La complejidad computacional de este m´todo es me-
e
frases tendr´n un tama˜o no prefijado.
a n dia.
52 XV Congreso Español Sobre Tecnologías y Lógica Fuzzy
5. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010
5 Generaci´n de frases
o para el caso de las distancias basadas en la proximidad
de las palabras.
Para el caso del aprendizaje de una cadena de Markov
con secuencias de palabras esta generaci´n es directa
o Algoritmos Precisi´n
o Recall
utilizando la secuencia de palabras que genere la ca- Markov palabras 0.076±0.026 0.037±0.009
dena de Markov. Markov clases 0.028±0.017 0.024±0.008
En el resto de casos se utilizar´ el m´todo de Monte
a e Patrones 0.032±0.015 0.027±0.007
Carlo [10] para determinar que palabra utilizar en cada Bigrama 0.034±0.019 0.023±0.007
clase, en funci´n de la frecuencia de aparici´n de las
o o Media 0.043±0.028 0.028±0.009
palabras con respecto a las dem´s palabras en su clase.
a
Algunos ejemplos de frecuencias de palabras dentro de Tabla 1: Comparativa de algoritmos de generaci´n de
o
su clase, para las clases de la secci´n 3.2, son:
o frases con clases basadas en coocurrencia.
Clase 1 = { THE [88%], A [12%]}
Clase 2 = { BACKGROUND [49%], FRONT [51%]}
Algoritmos Precisi´n
o Recall
Clase 3 = { CIRCLE [21%], OVAL [6%], ... } ...
Markov palabras 0.089±0.026 0.040±0.009
Markov clases 0.065±0.027 0.032±0.008
6 Resultados Patrones 0.088±0.019 0.043±0.007
Bigrama 0.114±0.025 0.042±0.007
En esta secci´n se presentar´n brevemente los resul-
o a Media 0.089±0.030 0.039±0.009
tados obtenidos con los algoritmos antes expuestos y
comparando las distintas alternativas barajadas. Para Tabla 2: Comparativa de algoritmos de generaci´n de
o
estas pruebas se han evaluado las frases generadas en frases con clases basadas en proximidad de palabras.
cada caso en funci´n de precisi´n y recall de los mis-
o o
mos: Seguidamente, para comprobar la convergencia de los
resultados obtenidos, utilizando todos los datos para
Precisi´n : Es una medida de exactitud o fidelidad.
o entrenar y validar, se han calculado los recall y pre-
En nuestro caso ser´ el porcentaje de frases del
a cisi´n, al generar 100, 1.000, 10.000, 100.000, 1.000.000
o
conjunto de las generadas que son reproducciones frases, con las distancias basadas en proximidad. Se
exactas de, al menos, una frase de entrenamiento. pueden ver las evoluciones de la precisi´n en la figura
o
Una precisi´n del 1.0 signifar´ que todas las frases
o ıa 3 y del recall en la figura 4
generadas est´n presentes en los datos de entre-
a
namiento.
Recall : Es una medida de completitud. Para el caso
que nos centramos, consistir´ en el porcentaje de
a
frases de entrenamiento que el sistema es capaz de
generar. Un recall de 1.0 se dar´ en el caso de que
ıa
todos los datos de entrenamiento son generados
por el sistema al menos una vez.
Como una primera prueba, se han realizado 100 repeti-
ciones de 1000 frases generadas, utilizando un 80% de
las frases disponibles para entrenar y el 20% restante
para validar las generadas, utilizando los 2 tipos de
distancias para el clustering y las 4 formas de apren-
dizaje de gram´ticas mencionadas. Estas frases han
a
sido evaluadas de forma autom´tica obteniendo resul-
a Figura 3: Evoluci´n de la precisi´n.
o o
tados de precisi´n y recall.
o
En la tabla 1 presentamos la media y la desviaci´n o Finalmente, han sido generadas 100 frases para eval-
t´
ıpica de las 100 repeticiones al generar 1000 frases uar su correcci´n sint´ctica manualmente por dos per-
o a
con los cuatro algoritmos de generaci´n de frases an-
o sonas con los 3 mejores m´todos de aprendizajes de
e
teriormente introducidos para la distancia basada en gram´ticas y utilizando para realizar el clustering la
a
coocurrencias. Y en la tabla 2 mostramos los mismos distancia basada en la proximidad de las palabras, que
XV Congreso Español Sobre Tecnologías y Lógica Fuzzy 53
6. ESTYLF 2010, Huelva, 3 a 5 de febrero de 2010
soluci´n para construir frases sint´cticamente correc-
o a
tas (88%) es utilizar la distancia basada en la proximi-
dad de palabras para crear las clases de palabras y, uti-
lizar patrones extraidos de los datos de entrenamiento.
La segunda mejor combinaci´n es la de utilizar el bi-
o
grama de probabilidades, junto con la distancia basada
en proximidad, ya que se obtinen unos resultados cer-
canos a la mejor opci´n estudiada (79%).
o
Como se indica al inicio del documento, el trabajo
aqu´ realizado pertenece a la b´squeda de un obje-
ı u
tivo m´s ambicioso de describir objetos dentro de una
a
imagen de forma adecuada, por lo que generar frases
sint´cticamente correctas no es suficiente, sino que
a
deben ser sem´nticamente correctas.
a
Figura 4: Evoluci´n del recall.
o La generaci´n de frases compuestas, donde se hace ref-
o
erencia a m´s de un objeto, queda como trabajo fu-
a
turo. Ya que existir´n casos donde los objetos que
a
obtiene mejores resultados que la basada en coocurren- acompa˜an al que se debe describir tendr´n carac-
n a
cias. Estos resultados se pueden ver resumidos en la ter´
ısticas similares al seleccionado por lo que la frase
tabla 3. ha de ser m´s compleja.
a
Algoritmos Porcentaje de frases correctas
Markov palabras 0.68 Referencias
Patrones 0.88
[1] Sergio Guadarrama, David P´rez. Learning Se-
e
Bigrama 0.79 mantic Models from Descriptions of Shapes made
by Web-Users. 2009.
Tabla 3: Resumen de resultados obtenidos manual-
mente. [2] Deb K. Roy. Learning Visually-Grounded Words
and Syntax for a Scene Description Task. 2002.
[3] Peter Gorniak, Deb Roy. Grounded Semantic
7 An´lisis de resultados
a Composition for Visual Scenes. 2004.
Como se puede apreciar en las tablas 1 y 2 existe una [4] Martin Redington, Nick Chater, Steven Finch.
mejora al utilizar la distancia basada en la proximi- Distributional Information: A Powerful Cue for
dad de palabras para todos los tipos de aprendizaje de Acquiring Syntactic Categories. 1998.
gram´ticas.
a
[5] Zach Solan, David Horn, Eytan Ruppin. Unsu-
Al comparar las frases generadas por los cuatro pervised Learning of natural languages. 2005.
m´todos de aprendizaje de gram´ticas con los datos
e a
de test, puede verse en las figuras 3 y 4 que el m´todo
e [6] Steven Finch, Nick Chater. Distributional Boot-
de aprender una cadena de Markov con las clases ob- strapping: From Word Class to Proto-Sentence.
tiene los peores resultados. Y que los otros 3 m´todos
e 1994.
obtienen unos resultados muy similares para todos el- [7] Fernando Pereira, Naftali Tishby, Lillian Lee. Dis-
los. tributional Clustering of English Words. 1993.
Al comparar las frases generadas por los otros 3
[8] Percy Liang, Michael I. Jordan, Dan Klein. Learn-
m´todos de forma manual, tabla 3, los mejores resul-
e
ing Semantic Correspondences with Less Supervi-
tados se obtienen con el m´todo basado en utilizar
e
sion. 2009.
patrones del conjunto de entrenamiento.
[9] Thomas Hofmann. Unsupervised Learning by
8 Conclusi´n y trabajo futuro
o Probabilistic Latent Semantic Analysis. 2001.
[10] Nicholas Metropolis, Stanislaw Ulman. The
Al analizar todos las pruebas realizadas con las distin- Monte Carlo Method. 1949.
tas distancias de clustering y los distintos m´todos de
e
aprendizaje de gram´ticas concluimos que la merjor
a
54 XV Congreso Español Sobre Tecnologías y Lógica Fuzzy