SlideShare una empresa de Scribd logo
1 de 30
Descargar para leer sin conexión
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Algoritmo de Fisher para Clasificación Óptima
Javier Trejos
Escuela de Matemática – CIMPA
Universidad de Costa Rica
II ciclo 2020
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Esquema
1 Introducción
2 Algoritmo
3 Optimalidad
4 Prueba
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clasificación Automática para una Variable
Introducción
Situación: se tiene un grupo de n individuos descriptos
por una variable cuantitativa o cualitativa ordinal.
Objetivo: particionar los individuos en K clases,
cumpliendo:
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clasificación Automática para una Variable
Introducción
Situación: se tiene un grupo de n individuos descriptos
por una variable cuantitativa o cualitativa ordinal.
Objetivo: particionar los individuos en K clases,
cumpliendo:
Máxima homogeneidad dentro de las clases.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clasificación Automática para una Variable
Introducción
Situación: se tiene un grupo de n individuos descriptos
por una variable cuantitativa o cualitativa ordinal.
Objetivo: particionar los individuos en K clases,
cumpliendo:
Máxima homogeneidad dentro de las clases.
Máxima separación entre las clases.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clasificación Automática para una Variable
Introducción
Situación: se tiene un grupo de n individuos descriptos
por una variable cuantitativa o cualitativa ordinal.
Objetivo: particionar los individuos en K clases,
cumpliendo:
Máxima homogeneidad dentro de las clases.
Máxima separación entre las clases.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Principios
Método de W.D. Fisher: está basado en el principio de
optimalidad de Bellman usado en Programación Dinámica.
Se trata de construir iterativamente particiones con un
número de clases igual al ı́ndice de la iteración actual, y
que empiecen en los distintos objetos a clasifica.
Se escoge de manera óptima el punto de corte de la nueva
clase que se agrega a una partición existente.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Notación
Se tiene una variable cuantitativa o cualitativa ordinal x,
medida u observada sobre n objetos de un conjunto Ω.
Supondremos, para simplificar, que los valores de x son
todos distintos, por lo que se dispone de n números reales:
x1 < x2 < · · · < xn
que eventualmente pueden estar ponderados por pesos ωi.
Se busca una partición P = (C1, C2, . . . , CK) de Ω en K
clases, tales que la varianza intra-clases
W(P) =
K
X
k=1
X
i ∈ Ckωi(xi − gk)2
=
K
X
k=1
I(Ck) (1)
sea mı́nima, donde gk =
P
i∈Ck
ωixi es el promedio de x
sobre los elementos de la clase Ck.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Idea del método
El algoritmo calcula, en la iteración k, una serie de
particiones Pi
k en k clases del conjunto {i, i + 1, . . . , n}.
Se prueba que estas particiones deben tener elementos
consecutivos para ser optimales: no pueden intercalarse
elementos de otras clases entre dos elementos de una
misma clase.
El algoritmo finaliza con la partición P1
k de Ω en k clases,
que es la partición óptima buscada.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Algoritmo
Algoritmo de Fisher
Entrada: xi, ωi
1. Sea Pi
1 = {i, i + 1, . . . , n} para todo i = 1, . . . , n
k. Para k = 2, . . . , K − 1 hacer:
determinar Pi
l = ({i, . . . , j}, Pj+1
l−1 ) de {i, . . . , n} en k
clases,
con j ∈ {i, . . . , n − k + 1} que minimiza
I({i, . . . , j}) + W(Pj+1
k−1 )
K. Construir P1
k = ({1, . . . , i}, Pi+1
K−1) que minimiza
I({1, . . . , j}) + W(Pj+1
k−1 )
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Optimalidad
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
k, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: Supóngase por contradicción que existen
clases C, C′ ∈ P∗ tales que i, j ∈ C, h ∈ C′ y xi < xh < xj.
Sean g, g′ los promedios de C y C′, respectivamente. Entonces
se cumple una de tres posibilidades:
|xh − g′
| ≥ |xh − g| ≥ 0 (2)
|xi − g| ≥ |xi − g′
| ≥ 0 (3)
|xj − g| ≥ |xj − g′
| ≥ 0 (4)
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Optimalidad
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
K tal que xi < xh < xj.
Demostración: (Cont.) En efecto, si g ≤ g′:
Si g ≥ xh entonces (2).
Si xh < g < g′ < xj entonces (4).
Si g ≤ xh < xj ≤ g′, entonces
en caso de tener |xj − g| ≥ |xj − g′
| se tiene (4);
si no
|xh − g| ≤ |xh − xj| + |xj − g| < |xh − xj| + |xj − g′
| =
xj − xh − g′
− xj = g′
− xh = |xh − g′
|,
de donde se tiene (2).
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Optimalidad
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
k, entonces no
existe ningún objeto xh ∈ Ω − C∗
K tal que xi < xh < xj.
Demostración: (Cont.) Sg > g′:
Si g′ < g ≤ xh entonces (2).
Si xi < g′ < g entonces se cumple (3).
si |xh − g′| ≥ |xh − g| entonces se cumple (2),
de lo contrario se cumple |xi − g′| ≤ |xi − xh| + |xh − g′| <
|xi − xh| + |xh − g| = xh − xi + g − xh = g − xi = |xi − g|,
de donde se cumple (3).
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Optimalidad
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: (Cont.) Lo anterior significa que hay uno de
los tres puntos que está más alejado del centro de su clase que
del centro de la otra clase. Sea a ese punto y sea C1 la clase a
la que pertenece, con centro g1, y sea C2 la otra clase con
centro g2.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Optimalidad
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: (Cont.) Examinemos ahora el valor del
criterio, poniendo µk =
P
i∈Ck
ωi.
W(P∗
) =
K
X
k=1
X
i∈Ck
ωi(xi − gk)2
=
K
X
k=1
X
i∈Ck
ωix2
i − 2
K
X
k=1
X
i∈Ck
ωixigk +
K
X
k=1
µkg2
k
=
n
X
i=1
ωix2
i −
K
X
k=1
µkg2
k
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: (Cont.) Consideremos la partición “natural”
Π = (D1, . . . , DK) con
D1 = C1 − {a} (con centro γ1),
D2 = C2 ∪ {a} (con centro γ2), y
D3 = C3, . . . , ]itemDk = CK.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: (Cont.) Consideremos la partición “natural”
Π = (D1, . . . , DK) con
D1 = C1 − {a} (con centro γ1),
D2 = C2 ∪ {a} (con centro γ2), y
D3 = C3, . . . , ]itemDk = CK.
Es claro que γ1 = 1
µ1−1(µ1g1 − a), y γ2 = 1
µ2+1(µ2g2 + a).
Luego W(Π) =
Pn
i=1 ωix2
i − γ2
1(|C1| − 1) − γ2
2(|C2| + 1) − R.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: (Cont.) Por lo tanto
W(P∗) − W(Π) =
= γ2
1(|C1| − 1) + γ2
2(|C2| + 1) − µ1g2
1µ2g2
2
=
(µ1g1 − a)2
µ1 − 1
+
(µ2g2 + a)2
µ2 + 1
− µ1g2
1 − µ2g2
2
a2 − 2aµ1g1 + µ1g2
1
µ1 − 1
+
a2 + 2aµ2g2 + µ2g2
2
µ2 + 1
=
µ1
µ1 − 1
[a − g1]2
−
µ2
µ2 + 1
[a − g2]2
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: (Cont.) pues
µ1a2
µ1 − 1
−
µ2a2
µ2 + 1
=
µ1a2(µ2 + 1) − µ2a2(µ1 − 1)
(µ1 − 1)(µ2 + 1)
=
a2µ1 + µ2a2
(µ1 − 1)(µ2 + 1)
y
a2
µ1 − 1
+
a2
µ2 + 1
=
a2µ2 + a2 + µ1a2 − a2
(µ1 − 1)(µ2 + 1)
Como |a − g1| ≥ |a − g2| ≥ 0 entonces
µ2
µ2+1|a − g1|2 ≥ µ2
µ2+1|a − g2|2.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: (Cont.)
Como |a − g1| ≥ |a − g2| ≥ 0 entonces
µ2
µ2+1 |a − g1|2 ≥ µ2
µ2+1|a − g2|2.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Clases con elementos consecutivos
Una partición P∗ que minimiza W está formada por clases
contiguas según la variable x: si xi, xj ∈ C∗
K, entonces no
existe ningún objeto xh ∈ Ω − C∗
k tal que xi < xh < xj.
Demostración: (Cont.)
Como |a − g1| ≥ |a − g2| ≥ 0 entonces
µ2
µ2+1 |a − g1|2 ≥ µ2
µ2+1|a − g2|2.
Luego, W(P∗) − W(Π) ≥ (a − g1)2

µ1
µ1−1 − µ2
µ2+1

,
de donde W(P∗) − W(Π) ≥ 0 ⇔ µ1
µ1−1 − µ2
µ2+1 ≥ 0
⇔ µ1+µ2
(µ1−1)(µ2+1)  0, lo cual es cierto.
Por tanto, W(P∗)  W(Π), lo cual es una contradicción.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Minimización
Si P∗ = (C∗
1 , . . . , C∗
K) minimiza W en Ω, entonces
(C∗
2 , . . . , C∗
K) minimiza W en Ω − C∗
1 .
Demostración:
Para cualquier partición P de Ω en K clases, se tiene
W(P∗) ≤ W(P).
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Minimización
Si P∗ = (C∗
1 , . . . , C∗
K) minimiza W en Ω, entonces
(C∗
2 , . . . , C∗
K) minimiza W en Ω − C∗
1 .
Demostración:
Para cualquier partición P de Ω en K clases, se tiene
W(P∗) ≤ W(P).
Sea (D2, . . . , DK) una partición de Ω − C∗
1 en K − 1
clases.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Minimización
Si P∗ = (C∗
1 , . . . , C∗
K) minimiza W en Ω, entonces
(C∗
2 , . . . , C∗
K) minimiza W en Ω − C∗
1 .
Demostración:
Para cualquier partición P de Ω en K clases, se tiene
W(P∗) ≤ W(P).
Sea (D2, . . . , DK) una partición de Ω − C∗
1 en K − 1
clases.
Entonces (C∗
1 , D2, . . . , DK) una partición de Ω en K
clases, y cumple W(P∗) ≤ I(C∗
1 ) +
PK
k=2 I(Dk), con
K
X
k=2
I(C∗
k) ≤
K
X
k=2
I(Dk).
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Minimización
Si P∗ = (C∗
1 , . . . , C∗
K) minimiza W en Ω, entonces
(C∗
2 , . . . , C∗
K) minimiza W en Ω − C∗
1 .
Demostración:
Para cualquier partición P de Ω en K clases, se tiene
W(P∗) ≤ W(P).
Sea (D2, . . . , DK) una partición de Ω − C∗
1 en K − 1
clases.
Entonces (C∗
1 , D2, . . . , DK) una partición de Ω en K
clases, y cumple W(P∗) ≤ I(C∗
1 ) +
PK
k=2 I(Dk), con
K
X
k=2
I(C∗
k) ≤
K
X
k=2
I(Dk).
Por lo tanto, (C∗
2 , . . . , C∗
K) es óptima de Ω − C∗
1 en K − 1
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Optimalidad del Método de Fisher
Para k = 1, . . . , K, las particiones P1
k construidas por el
algoritmo de Fisher minimizan W: son particiones óptimas de
Ω en k clases.
Demostración: Veamos que, para todo k ∈ {2, . . . , K} y
todo i ∈ {1, . . . , n − k + 1}, la partición Pi
k es óptima de
{i, . . . , n}.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Optimalidad del Método de Fisher
Para k = 1, . . . , K, las particiones P1
k construidas por el
algoritmo de Fisher minimizan W: son particiones óptimas de
Ω en k clases.
Demostración: Veamos que, para todo k ∈ {2, . . . , K} y
todo i ∈ {1, . . . , n − k + 1}, la partición Pi
k es óptima de
{i, . . . , n}.
Por inducción sobre k:
Para k = 2: se quiere particionar {i, i + 1, . . . , n} en dos
clases.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Optimalidad del Método de Fisher
Para k = 1, . . . , K, las particiones P1
k construidas por el
algoritmo de Fisher minimizan W: son particiones óptimas de
Ω en k clases.
Demostración: Veamos que, para todo k ∈ {2, . . . , K} y
todo i ∈ {1, . . . , n − k + 1}, la partición Pi
k es óptima de
{i, . . . , n}.
Por inducción sobre k:
Para k = 2: se quiere particionar {i, i + 1, . . . , n} en dos
clases.
Para i ∈ {1, 2, . . . , n − 2}, el algoritmo construye
Pi
2 = ({i, . . . , j}, Pj+1
1 ), que es óptima porque tiene clases
contiguas y j se escoge tal que minimiza W entre las
particiones en 2 clases contiguas. (Sigue)
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Optimalidad del Método de Fisher
Demostración: (Cont.) Supóngase el resultado cierto para
k − 1:
Pi
k−1 es óptima de {i, . . . , n} en k − 1 clases, para todo
i ∈ {1, . . . , n − k + 2}.
Probemos el resultado para l, es decir, que Pi
k es óptima
para todo i ∈ {1, . . . , n − k + 1}.
El algoritmo construye Pi
k = ({i, . . . , j}, Pj+1
k−1 ) con
j ∈ {i, . . . , n − k + 1} que minimiza
I({i, . . . , j}) + W(Pj+1
k−1 ).
Por hipótesis de inducción, Pj+1
k−1 es una partición óptima
de {j + 1, . . . , n} en k − 1 clases. Como las clases deben
ser contiguas, al minimizar I({i, . . . , j}) + W(Pj+1
k−1 ) sobre
j, se está cnsiderando el óptimo global sobre {i, . . . , n}.
Por lo tanto, Pi
k es una partición óptima de {i, . . . , n}.
Algoritmo de
Fisher para
Clasificación
Óptima
Javier Trejos
Introducción
Algoritmo
Optimalidad
Prueba
Método de W.D. Fisher
Optimalidad
Optimalidad
La partición P1
k construida al final del algoritmo de Fisher es la
partición óptima de Ω en k clases.

Más contenido relacionado

Similar a Clasificación óptima: algoritmo de Fisher

Similar a Clasificación óptima: algoritmo de Fisher (20)

Teoría de Conjuntos
Teoría de ConjuntosTeoría de Conjuntos
Teoría de Conjuntos
 
Tabla de integrales (integrales trigonometricas)
Tabla de integrales (integrales trigonometricas)Tabla de integrales (integrales trigonometricas)
Tabla de integrales (integrales trigonometricas)
 
X 2 cq (2)
X 2 cq (2)X 2 cq (2)
X 2 cq (2)
 
Algunos ejercisios
Algunos ejercisiosAlgunos ejercisios
Algunos ejercisios
 
Ecuaciones diferenciales lineales
Ecuaciones diferenciales linealesEcuaciones diferenciales lineales
Ecuaciones diferenciales lineales
 
Newton
NewtonNewton
Newton
 
18131735 interpolacion-newton
18131735 interpolacion-newton18131735 interpolacion-newton
18131735 interpolacion-newton
 
09. cuaderno matemática 3er stre.cs
09.  cuaderno matemática 3er stre.cs09.  cuaderno matemática 3er stre.cs
09. cuaderno matemática 3er stre.cs
 
Caderno Matemática 3º Semestre Ciencias Adultos
Caderno Matemática 3º Semestre Ciencias AdultosCaderno Matemática 3º Semestre Ciencias Adultos
Caderno Matemática 3º Semestre Ciencias Adultos
 
Expresiones algebraicas
Expresiones algebraicasExpresiones algebraicas
Expresiones algebraicas
 
Integrales indefinidas 1
Integrales indefinidas 1Integrales indefinidas 1
Integrales indefinidas 1
 
Integral indefinida
Integral indefinidaIntegral indefinida
Integral indefinida
 
Semana 8
Semana 8Semana 8
Semana 8
 
Informe de practica 3.pdf
Informe de practica 3.pdfInforme de practica 3.pdf
Informe de practica 3.pdf
 
Sol. 3ra PC 19-1.pdf
Sol. 3ra PC 19-1.pdfSol. 3ra PC 19-1.pdf
Sol. 3ra PC 19-1.pdf
 
Fracciones algebraicas
Fracciones algebraicasFracciones algebraicas
Fracciones algebraicas
 
LAS FUNCIONES POLINOMIALES
LAS FUNCIONES POLINOMIALESLAS FUNCIONES POLINOMIALES
LAS FUNCIONES POLINOMIALES
 
Ejercicios diferenciacion-e-integracic3b3n-numc3a9rica
Ejercicios diferenciacion-e-integracic3b3n-numc3a9ricaEjercicios diferenciacion-e-integracic3b3n-numc3a9rica
Ejercicios diferenciacion-e-integracic3b3n-numc3a9rica
 
Integrales indefinidas
Integrales indefinidasIntegrales indefinidas
Integrales indefinidas
 
Integrales indefinidas
Integrales indefinidasIntegrales indefinidas
Integrales indefinidas
 

Más de Facultad de Ciencias, UCR (16)

Yield curve estimation in Costa Rica
Yield curve estimation in Costa RicaYield curve estimation in Costa Rica
Yield curve estimation in Costa Rica
 
CART
CARTCART
CART
 
Análisis en componentes principales general
Análisis en componentes principales generalAnálisis en componentes principales general
Análisis en componentes principales general
 
Análisis en componentes principales
Análisis en componentes principalesAnálisis en componentes principales
Análisis en componentes principales
 
Análisis de correspondencias
Análisis de correspondenciasAnálisis de correspondencias
Análisis de correspondencias
 
Análisis de correspondencias múltiples
Análisis de correspondencias múltiplesAnálisis de correspondencias múltiples
Análisis de correspondencias múltiples
 
Ilustracion de K-medias
Ilustracion de K-mediasIlustracion de K-medias
Ilustracion de K-medias
 
Clasificacion automática (II parte) - clustering.pdf
Clasificacion automática (II parte) - clustering.pdfClasificacion automática (II parte) - clustering.pdf
Clasificacion automática (II parte) - clustering.pdf
 
Clasificacion Automática - clustering (I parte)
Clasificacion Automática - clustering (I parte)Clasificacion Automática - clustering (I parte)
Clasificacion Automática - clustering (I parte)
 
Regresión Lineal Múltiple
Regresión Lineal MúltipleRegresión Lineal Múltiple
Regresión Lineal Múltiple
 
Regresión Logística
Regresión LogísticaRegresión Logística
Regresión Logística
 
7_Discriminacion.pdf
7_Discriminacion.pdf7_Discriminacion.pdf
7_Discriminacion.pdf
 
Analisis Canonico
Analisis CanonicoAnalisis Canonico
Analisis Canonico
 
Regresión PLS
Regresión PLSRegresión PLS
Regresión PLS
 
Curso(1)-Clasificacion
Curso(1)-ClasificacionCurso(1)-Clasificacion
Curso(1)-Clasificacion
 
Modelos de clasificación
Modelos de clasificaciónModelos de clasificación
Modelos de clasificación
 

Último

Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Juan Carlos Fonseca Mata
 
Diario experiencias Quehacer Científico y tecnológico vf.docx
Diario experiencias Quehacer Científico y tecnológico vf.docxDiario experiencias Quehacer Científico y tecnológico vf.docx
Diario experiencias Quehacer Científico y tecnológico vf.docxJulieta624646
 
el amor en los tiempos del colera (resumen).pptx
el amor en los tiempos del colera (resumen).pptxel amor en los tiempos del colera (resumen).pptx
el amor en los tiempos del colera (resumen).pptxhectoralvarado79
 
La Célula, unidad fundamental de la vida
La Célula, unidad fundamental de la vidaLa Célula, unidad fundamental de la vida
La Célula, unidad fundamental de la vidaMaraJosQuiroz2
 
2. Hormonas y Ciclo estral de los animales
2. Hormonas y Ciclo estral de los animales2. Hormonas y Ciclo estral de los animales
2. Hormonas y Ciclo estral de los animalesAndreaVillamar8
 
Mapa Conceptual Modelos de Comunicación .pdf
Mapa Conceptual Modelos de Comunicación .pdfMapa Conceptual Modelos de Comunicación .pdf
Mapa Conceptual Modelos de Comunicación .pdfoliverjverde
 
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfSEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfPC0121
 
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptxMapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptxangietatianasanchezc
 
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPerfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPieroalex1
 
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docx
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docxPRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docx
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docxAlexandraNeryHuamanM2
 
Pelos y fibras. Criminalistica pelos y fibras
Pelos y fibras. Criminalistica pelos y fibrasPelos y fibras. Criminalistica pelos y fibras
Pelos y fibras. Criminalistica pelos y fibrasPaola Rodríguez
 
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdfAlthusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdffrank0071
 
Moda colonial de 1810 donde podemos ver las distintas prendas
Moda colonial de 1810 donde podemos ver las distintas prendasModa colonial de 1810 donde podemos ver las distintas prendas
Moda colonial de 1810 donde podemos ver las distintas prendasMorenaVictorero1
 
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdfHobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdffrank0071
 
Terapia Cognitivo Conductual CAPITULO 2.
Terapia Cognitivo Conductual CAPITULO 2.Terapia Cognitivo Conductual CAPITULO 2.
Terapia Cognitivo Conductual CAPITULO 2.ChiquinquirMilagroTo
 
La señal de los higos buenos y los higos malos
La señal de los higos buenos y los higos malosLa señal de los higos buenos y los higos malos
La señal de los higos buenos y los higos malosDomingoAlbertoCorpor1
 
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptxllacza2004
 
Matemáticas Aplicadas usando Python
Matemáticas Aplicadas   usando    PythonMatemáticas Aplicadas   usando    Python
Matemáticas Aplicadas usando PythonErnesto Crespo
 
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)s.calleja
 

Último (20)

Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
Un repaso de los ensayos recientes de historia de la ciencia y la tecnología ...
 
Diario experiencias Quehacer Científico y tecnológico vf.docx
Diario experiencias Quehacer Científico y tecnológico vf.docxDiario experiencias Quehacer Científico y tecnológico vf.docx
Diario experiencias Quehacer Científico y tecnológico vf.docx
 
el amor en los tiempos del colera (resumen).pptx
el amor en los tiempos del colera (resumen).pptxel amor en los tiempos del colera (resumen).pptx
el amor en los tiempos del colera (resumen).pptx
 
La Célula, unidad fundamental de la vida
La Célula, unidad fundamental de la vidaLa Célula, unidad fundamental de la vida
La Célula, unidad fundamental de la vida
 
2. Hormonas y Ciclo estral de los animales
2. Hormonas y Ciclo estral de los animales2. Hormonas y Ciclo estral de los animales
2. Hormonas y Ciclo estral de los animales
 
Mapa Conceptual Modelos de Comunicación .pdf
Mapa Conceptual Modelos de Comunicación .pdfMapa Conceptual Modelos de Comunicación .pdf
Mapa Conceptual Modelos de Comunicación .pdf
 
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfSEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
 
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptxMapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
 
La biodiversidad de Guanajuato (resumen)
La biodiversidad de Guanajuato (resumen)La biodiversidad de Guanajuato (resumen)
La biodiversidad de Guanajuato (resumen)
 
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdfPerfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
Perfiles NEUROPSI Atención y Memoria 6 a 85 Años (AyM).pdf
 
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docx
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docxPRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docx
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docx
 
Pelos y fibras. Criminalistica pelos y fibras
Pelos y fibras. Criminalistica pelos y fibrasPelos y fibras. Criminalistica pelos y fibras
Pelos y fibras. Criminalistica pelos y fibras
 
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdfAlthusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
 
Moda colonial de 1810 donde podemos ver las distintas prendas
Moda colonial de 1810 donde podemos ver las distintas prendasModa colonial de 1810 donde podemos ver las distintas prendas
Moda colonial de 1810 donde podemos ver las distintas prendas
 
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdfHobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
Hobson, John A. - Estudio del imperialismo [ocr] [1902] [1981].pdf
 
Terapia Cognitivo Conductual CAPITULO 2.
Terapia Cognitivo Conductual CAPITULO 2.Terapia Cognitivo Conductual CAPITULO 2.
Terapia Cognitivo Conductual CAPITULO 2.
 
La señal de los higos buenos y los higos malos
La señal de los higos buenos y los higos malosLa señal de los higos buenos y los higos malos
La señal de los higos buenos y los higos malos
 
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
 
Matemáticas Aplicadas usando Python
Matemáticas Aplicadas   usando    PythonMatemáticas Aplicadas   usando    Python
Matemáticas Aplicadas usando Python
 
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
Ensayo ENRICH (sesión clínica, Servicio de Neurología HUCA)
 

Clasificación óptima: algoritmo de Fisher

  • 1. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Algoritmo de Fisher para Clasificación Óptima Javier Trejos Escuela de Matemática – CIMPA Universidad de Costa Rica II ciclo 2020
  • 2. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Esquema 1 Introducción 2 Algoritmo 3 Optimalidad 4 Prueba
  • 3. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clasificación Automática para una Variable Introducción Situación: se tiene un grupo de n individuos descriptos por una variable cuantitativa o cualitativa ordinal. Objetivo: particionar los individuos en K clases, cumpliendo:
  • 4. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clasificación Automática para una Variable Introducción Situación: se tiene un grupo de n individuos descriptos por una variable cuantitativa o cualitativa ordinal. Objetivo: particionar los individuos en K clases, cumpliendo: Máxima homogeneidad dentro de las clases.
  • 5. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clasificación Automática para una Variable Introducción Situación: se tiene un grupo de n individuos descriptos por una variable cuantitativa o cualitativa ordinal. Objetivo: particionar los individuos en K clases, cumpliendo: Máxima homogeneidad dentro de las clases. Máxima separación entre las clases.
  • 6. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clasificación Automática para una Variable Introducción Situación: se tiene un grupo de n individuos descriptos por una variable cuantitativa o cualitativa ordinal. Objetivo: particionar los individuos en K clases, cumpliendo: Máxima homogeneidad dentro de las clases. Máxima separación entre las clases.
  • 7. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Principios Método de W.D. Fisher: está basado en el principio de optimalidad de Bellman usado en Programación Dinámica. Se trata de construir iterativamente particiones con un número de clases igual al ı́ndice de la iteración actual, y que empiecen en los distintos objetos a clasifica. Se escoge de manera óptima el punto de corte de la nueva clase que se agrega a una partición existente.
  • 8. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Notación Se tiene una variable cuantitativa o cualitativa ordinal x, medida u observada sobre n objetos de un conjunto Ω. Supondremos, para simplificar, que los valores de x son todos distintos, por lo que se dispone de n números reales: x1 < x2 < · · · < xn que eventualmente pueden estar ponderados por pesos ωi. Se busca una partición P = (C1, C2, . . . , CK) de Ω en K clases, tales que la varianza intra-clases W(P) = K X k=1 X i ∈ Ckωi(xi − gk)2 = K X k=1 I(Ck) (1) sea mı́nima, donde gk = P i∈Ck ωixi es el promedio de x sobre los elementos de la clase Ck.
  • 9. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Idea del método El algoritmo calcula, en la iteración k, una serie de particiones Pi k en k clases del conjunto {i, i + 1, . . . , n}. Se prueba que estas particiones deben tener elementos consecutivos para ser optimales: no pueden intercalarse elementos de otras clases entre dos elementos de una misma clase. El algoritmo finaliza con la partición P1 k de Ω en k clases, que es la partición óptima buscada.
  • 10. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Algoritmo Algoritmo de Fisher Entrada: xi, ωi 1. Sea Pi 1 = {i, i + 1, . . . , n} para todo i = 1, . . . , n k. Para k = 2, . . . , K − 1 hacer: determinar Pi l = ({i, . . . , j}, Pj+1 l−1 ) de {i, . . . , n} en k clases, con j ∈ {i, . . . , n − k + 1} que minimiza I({i, . . . , j}) + W(Pj+1 k−1 ) K. Construir P1 k = ({1, . . . , i}, Pi+1 K−1) que minimiza I({1, . . . , j}) + W(Pj+1 k−1 )
  • 11. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Optimalidad Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ k, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: Supóngase por contradicción que existen clases C, C′ ∈ P∗ tales que i, j ∈ C, h ∈ C′ y xi < xh < xj. Sean g, g′ los promedios de C y C′, respectivamente. Entonces se cumple una de tres posibilidades: |xh − g′ | ≥ |xh − g| ≥ 0 (2) |xi − g| ≥ |xi − g′ | ≥ 0 (3) |xj − g| ≥ |xj − g′ | ≥ 0 (4)
  • 12. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Optimalidad Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ K tal que xi < xh < xj. Demostración: (Cont.) En efecto, si g ≤ g′: Si g ≥ xh entonces (2). Si xh < g < g′ < xj entonces (4). Si g ≤ xh < xj ≤ g′, entonces en caso de tener |xj − g| ≥ |xj − g′ | se tiene (4); si no |xh − g| ≤ |xh − xj| + |xj − g| < |xh − xj| + |xj − g′ | = xj − xh − g′ − xj = g′ − xh = |xh − g′ |, de donde se tiene (2).
  • 13. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Optimalidad Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ k, entonces no existe ningún objeto xh ∈ Ω − C∗ K tal que xi < xh < xj. Demostración: (Cont.) Sg > g′: Si g′ < g ≤ xh entonces (2). Si xi < g′ < g entonces se cumple (3). si |xh − g′| ≥ |xh − g| entonces se cumple (2), de lo contrario se cumple |xi − g′| ≤ |xi − xh| + |xh − g′| < |xi − xh| + |xh − g| = xh − xi + g − xh = g − xi = |xi − g|, de donde se cumple (3).
  • 14. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Optimalidad Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: (Cont.) Lo anterior significa que hay uno de los tres puntos que está más alejado del centro de su clase que del centro de la otra clase. Sea a ese punto y sea C1 la clase a la que pertenece, con centro g1, y sea C2 la otra clase con centro g2.
  • 15. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Optimalidad Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: (Cont.) Examinemos ahora el valor del criterio, poniendo µk = P i∈Ck ωi. W(P∗ ) = K X k=1 X i∈Ck ωi(xi − gk)2 = K X k=1 X i∈Ck ωix2 i − 2 K X k=1 X i∈Ck ωixigk + K X k=1 µkg2 k = n X i=1 ωix2 i − K X k=1 µkg2 k
  • 16. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: (Cont.) Consideremos la partición “natural” Π = (D1, . . . , DK) con D1 = C1 − {a} (con centro γ1), D2 = C2 ∪ {a} (con centro γ2), y D3 = C3, . . . , ]itemDk = CK.
  • 17. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: (Cont.) Consideremos la partición “natural” Π = (D1, . . . , DK) con D1 = C1 − {a} (con centro γ1), D2 = C2 ∪ {a} (con centro γ2), y D3 = C3, . . . , ]itemDk = CK. Es claro que γ1 = 1 µ1−1(µ1g1 − a), y γ2 = 1 µ2+1(µ2g2 + a). Luego W(Π) = Pn i=1 ωix2 i − γ2 1(|C1| − 1) − γ2 2(|C2| + 1) − R.
  • 18. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: (Cont.) Por lo tanto W(P∗) − W(Π) = = γ2 1(|C1| − 1) + γ2 2(|C2| + 1) − µ1g2 1µ2g2 2 = (µ1g1 − a)2 µ1 − 1 + (µ2g2 + a)2 µ2 + 1 − µ1g2 1 − µ2g2 2 a2 − 2aµ1g1 + µ1g2 1 µ1 − 1 + a2 + 2aµ2g2 + µ2g2 2 µ2 + 1 = µ1 µ1 − 1 [a − g1]2 − µ2 µ2 + 1 [a − g2]2
  • 19. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: (Cont.) pues µ1a2 µ1 − 1 − µ2a2 µ2 + 1 = µ1a2(µ2 + 1) − µ2a2(µ1 − 1) (µ1 − 1)(µ2 + 1) = a2µ1 + µ2a2 (µ1 − 1)(µ2 + 1) y a2 µ1 − 1 + a2 µ2 + 1 = a2µ2 + a2 + µ1a2 − a2 (µ1 − 1)(µ2 + 1) Como |a − g1| ≥ |a − g2| ≥ 0 entonces µ2 µ2+1|a − g1|2 ≥ µ2 µ2+1|a − g2|2.
  • 20. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: (Cont.) Como |a − g1| ≥ |a − g2| ≥ 0 entonces µ2 µ2+1 |a − g1|2 ≥ µ2 µ2+1|a − g2|2.
  • 21. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Clases con elementos consecutivos Una partición P∗ que minimiza W está formada por clases contiguas según la variable x: si xi, xj ∈ C∗ K, entonces no existe ningún objeto xh ∈ Ω − C∗ k tal que xi < xh < xj. Demostración: (Cont.) Como |a − g1| ≥ |a − g2| ≥ 0 entonces µ2 µ2+1 |a − g1|2 ≥ µ2 µ2+1|a − g2|2. Luego, W(P∗) − W(Π) ≥ (a − g1)2 µ1 µ1−1 − µ2 µ2+1 , de donde W(P∗) − W(Π) ≥ 0 ⇔ µ1 µ1−1 − µ2 µ2+1 ≥ 0 ⇔ µ1+µ2 (µ1−1)(µ2+1) 0, lo cual es cierto. Por tanto, W(P∗) W(Π), lo cual es una contradicción.
  • 22. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Minimización Si P∗ = (C∗ 1 , . . . , C∗ K) minimiza W en Ω, entonces (C∗ 2 , . . . , C∗ K) minimiza W en Ω − C∗ 1 . Demostración: Para cualquier partición P de Ω en K clases, se tiene W(P∗) ≤ W(P).
  • 23. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Minimización Si P∗ = (C∗ 1 , . . . , C∗ K) minimiza W en Ω, entonces (C∗ 2 , . . . , C∗ K) minimiza W en Ω − C∗ 1 . Demostración: Para cualquier partición P de Ω en K clases, se tiene W(P∗) ≤ W(P). Sea (D2, . . . , DK) una partición de Ω − C∗ 1 en K − 1 clases.
  • 24. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Minimización Si P∗ = (C∗ 1 , . . . , C∗ K) minimiza W en Ω, entonces (C∗ 2 , . . . , C∗ K) minimiza W en Ω − C∗ 1 . Demostración: Para cualquier partición P de Ω en K clases, se tiene W(P∗) ≤ W(P). Sea (D2, . . . , DK) una partición de Ω − C∗ 1 en K − 1 clases. Entonces (C∗ 1 , D2, . . . , DK) una partición de Ω en K clases, y cumple W(P∗) ≤ I(C∗ 1 ) + PK k=2 I(Dk), con K X k=2 I(C∗ k) ≤ K X k=2 I(Dk).
  • 25. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Minimización Si P∗ = (C∗ 1 , . . . , C∗ K) minimiza W en Ω, entonces (C∗ 2 , . . . , C∗ K) minimiza W en Ω − C∗ 1 . Demostración: Para cualquier partición P de Ω en K clases, se tiene W(P∗) ≤ W(P). Sea (D2, . . . , DK) una partición de Ω − C∗ 1 en K − 1 clases. Entonces (C∗ 1 , D2, . . . , DK) una partición de Ω en K clases, y cumple W(P∗) ≤ I(C∗ 1 ) + PK k=2 I(Dk), con K X k=2 I(C∗ k) ≤ K X k=2 I(Dk). Por lo tanto, (C∗ 2 , . . . , C∗ K) es óptima de Ω − C∗ 1 en K − 1
  • 26. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Optimalidad del Método de Fisher Para k = 1, . . . , K, las particiones P1 k construidas por el algoritmo de Fisher minimizan W: son particiones óptimas de Ω en k clases. Demostración: Veamos que, para todo k ∈ {2, . . . , K} y todo i ∈ {1, . . . , n − k + 1}, la partición Pi k es óptima de {i, . . . , n}.
  • 27. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Optimalidad del Método de Fisher Para k = 1, . . . , K, las particiones P1 k construidas por el algoritmo de Fisher minimizan W: son particiones óptimas de Ω en k clases. Demostración: Veamos que, para todo k ∈ {2, . . . , K} y todo i ∈ {1, . . . , n − k + 1}, la partición Pi k es óptima de {i, . . . , n}. Por inducción sobre k: Para k = 2: se quiere particionar {i, i + 1, . . . , n} en dos clases.
  • 28. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Optimalidad del Método de Fisher Para k = 1, . . . , K, las particiones P1 k construidas por el algoritmo de Fisher minimizan W: son particiones óptimas de Ω en k clases. Demostración: Veamos que, para todo k ∈ {2, . . . , K} y todo i ∈ {1, . . . , n − k + 1}, la partición Pi k es óptima de {i, . . . , n}. Por inducción sobre k: Para k = 2: se quiere particionar {i, i + 1, . . . , n} en dos clases. Para i ∈ {1, 2, . . . , n − 2}, el algoritmo construye Pi 2 = ({i, . . . , j}, Pj+1 1 ), que es óptima porque tiene clases contiguas y j se escoge tal que minimiza W entre las particiones en 2 clases contiguas. (Sigue)
  • 29. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Optimalidad del Método de Fisher Demostración: (Cont.) Supóngase el resultado cierto para k − 1: Pi k−1 es óptima de {i, . . . , n} en k − 1 clases, para todo i ∈ {1, . . . , n − k + 2}. Probemos el resultado para l, es decir, que Pi k es óptima para todo i ∈ {1, . . . , n − k + 1}. El algoritmo construye Pi k = ({i, . . . , j}, Pj+1 k−1 ) con j ∈ {i, . . . , n − k + 1} que minimiza I({i, . . . , j}) + W(Pj+1 k−1 ). Por hipótesis de inducción, Pj+1 k−1 es una partición óptima de {j + 1, . . . , n} en k − 1 clases. Como las clases deben ser contiguas, al minimizar I({i, . . . , j}) + W(Pj+1 k−1 ) sobre j, se está cnsiderando el óptimo global sobre {i, . . . , n}. Por lo tanto, Pi k es una partición óptima de {i, . . . , n}.
  • 30. Algoritmo de Fisher para Clasificación Óptima Javier Trejos Introducción Algoritmo Optimalidad Prueba Método de W.D. Fisher Optimalidad Optimalidad La partición P1 k construida al final del algoritmo de Fisher es la partición óptima de Ω en k clases.