Grupos próximos a un entorno Redes competitivas  y autoorganizadas
Método de Grupos Próximos Genera una ecuación no lineal de la forma k : Múltiples variables de salida M : Número de centroides Variables de entrada
Método de Grupos Próximos (II) Selección del parámetro     (ancho de la campana de Gauss) - -     = 0.2 . . .     = 0.5    = 0.7 __  Patrón original
Método de Grupos Próximos(III) Diferencia con métodos anteriores de agrupamiento: El número de centroides se genera automáticamente Nuevo grupo Grupo próximo  Grupos de datos identificados por reglas Es necesario definir un radio: Menor : más reglas borrosas
Método de Grupos Próximos(IV) El nuevo grupo está dentro del radio definido sobre el grupo  más próximo (  r’  <  r  ), no se incorpora nueva regla al  mecanismo de inferencia   Grupo próximo  Grupos de datos identificados por reglas
Método de Grupos Próximos(V) Los pasos fundamentales son los siguientes: [Paso 1].- Se coloca el primer conjunto de datos como un grupo,  y la regla que lo identifica. [Paso 2].- Se determina (cuando exista un conjunto de reglas),  el grupo de variables que constituyen la parte precedente  de las reglas más próximo al nuevo patrón. [Paso 3].- Si el nuevo grupo está fuera de un rango de proximidad  definido por un radio  r , se incorpora una nueva regla;  [Paso 4].- Se realiza la inferencia aplicando. [Paso 5].- Se repite el algoritmo a partir del [Paso 2].
Método de Grupos Próximos(VI) % Calculo menor distancia entre los cluster y donde está  [c_dist,kl]=min(x_l(1:M)-x0_l(1:M)); if (c_dist > r)   % Es necesario incorporar nuevo cluster M=M+1;  x0_l(M)=x(i); % Se dejan los restantes como están Akl(1:M)=Akl(1:M); Bkl(1:M)=Bkl(1:M); % Se incorpora nuevo dato Akl(M)=y(i); Bkl(M)=1; else % Se incorpora el dato al cluster respectivo . end  % De selección Programa completo en página WEB
Método de Grupos Próximos(VII) Fuzzy Logic Toolbox: [C] = SUBCLUST(X, RADII) Siendo C los centroides,  X la matriz de datos de  entrada  RADII (definido entre 0 y 1) es el  radio   findcluster
Ejemplo % Matriz de datos x=[0 0 0 1 1 1 2 3 4 5 5 5 6 6 6]'; y=[1 2 3 1.5 2 2.5 2 2 2 1.5 2 2.5 1 2 3]'; x1=x+7;  y1=y.*2;  x2=x1+7;  y2=y.*(-2); x=[x; x1; x2];  y=[y; y1; y2]; X=[x,y]; % Se aplica el algoritmo [v]=subclust(X,.7); % Dibuja figure plot(X(:,1),X(:,2),'p'); hold on; plot(v(:,1),v(:,2),'s');
Ejemplo (I) Para radio=0.7  devuelve dos centroides
Ejemplo (II) Para radio=0.35  devuelve cuatro centroides
Redes competitivas Número de salidas : Representa el número de centroides en que la entrada estará dividida
Redes competitivas (II) Cálculo de la salidas  i   (Norma euclídea) Ley de adaptación (regla de aprendizaje de Kohonen) donde  i*  es el mayor valor devuelto por las salidas
Redes competitivas (III) Ejemplo nntool Entradas: 2 Salidas: 5
Redes competitivas (IV) Red competitiva resultante Vector de entradas que serán entrenados
Redes competitivas (IV) … y se exporta la red resultante del entrenamiento (Clasifica)  al espacio de trabajo de Matlab  Resultado >> pesos = Clasifica.IW{1} pesos = 0.3590  0.7371 0.1307  0.4837 0.0333  0.2200 0.9015  0.5183 0.7791  0.7088
Redes autoorganizadas Similar a las redes de aprendizaje competitivo   Se adaptan también las neuronas que pertenecen  a una vecindad de la neurona ganadora
Redes autoorganizadas (II) Regla de aprendizaje de Kohonen Sólo la vecindad Aprendizaje gradual
Redes autoorganizadas (III) >>clasificador = newsom(z,[2 3],'hextop','linkdist',0.8,150,0.1,2);

Grupos próximos

  • 1.
    Grupos próximos aun entorno Redes competitivas y autoorganizadas
  • 2.
    Método de GruposPróximos Genera una ecuación no lineal de la forma k : Múltiples variables de salida M : Número de centroides Variables de entrada
  • 3.
    Método de GruposPróximos (II) Selección del parámetro  (ancho de la campana de Gauss) - -  = 0.2 . . .  = 0.5  = 0.7 __ Patrón original
  • 4.
    Método de GruposPróximos(III) Diferencia con métodos anteriores de agrupamiento: El número de centroides se genera automáticamente Nuevo grupo Grupo próximo Grupos de datos identificados por reglas Es necesario definir un radio: Menor : más reglas borrosas
  • 5.
    Método de GruposPróximos(IV) El nuevo grupo está dentro del radio definido sobre el grupo más próximo ( r’ < r ), no se incorpora nueva regla al mecanismo de inferencia Grupo próximo Grupos de datos identificados por reglas
  • 6.
    Método de GruposPróximos(V) Los pasos fundamentales son los siguientes: [Paso 1].- Se coloca el primer conjunto de datos como un grupo, y la regla que lo identifica. [Paso 2].- Se determina (cuando exista un conjunto de reglas), el grupo de variables que constituyen la parte precedente de las reglas más próximo al nuevo patrón. [Paso 3].- Si el nuevo grupo está fuera de un rango de proximidad definido por un radio r , se incorpora una nueva regla; [Paso 4].- Se realiza la inferencia aplicando. [Paso 5].- Se repite el algoritmo a partir del [Paso 2].
  • 7.
    Método de GruposPróximos(VI) % Calculo menor distancia entre los cluster y donde está [c_dist,kl]=min(x_l(1:M)-x0_l(1:M)); if (c_dist > r)   % Es necesario incorporar nuevo cluster M=M+1; x0_l(M)=x(i); % Se dejan los restantes como están Akl(1:M)=Akl(1:M); Bkl(1:M)=Bkl(1:M); % Se incorpora nuevo dato Akl(M)=y(i); Bkl(M)=1; else % Se incorpora el dato al cluster respectivo . end % De selección Programa completo en página WEB
  • 8.
    Método de GruposPróximos(VII) Fuzzy Logic Toolbox: [C] = SUBCLUST(X, RADII) Siendo C los centroides, X la matriz de datos de entrada RADII (definido entre 0 y 1) es el radio findcluster
  • 9.
    Ejemplo % Matrizde datos x=[0 0 0 1 1 1 2 3 4 5 5 5 6 6 6]'; y=[1 2 3 1.5 2 2.5 2 2 2 1.5 2 2.5 1 2 3]'; x1=x+7; y1=y.*2; x2=x1+7; y2=y.*(-2); x=[x; x1; x2]; y=[y; y1; y2]; X=[x,y]; % Se aplica el algoritmo [v]=subclust(X,.7); % Dibuja figure plot(X(:,1),X(:,2),'p'); hold on; plot(v(:,1),v(:,2),'s');
  • 10.
    Ejemplo (I) Pararadio=0.7 devuelve dos centroides
  • 11.
    Ejemplo (II) Pararadio=0.35 devuelve cuatro centroides
  • 12.
    Redes competitivas Númerode salidas : Representa el número de centroides en que la entrada estará dividida
  • 13.
    Redes competitivas (II)Cálculo de la salidas i (Norma euclídea) Ley de adaptación (regla de aprendizaje de Kohonen) donde i* es el mayor valor devuelto por las salidas
  • 14.
    Redes competitivas (III)Ejemplo nntool Entradas: 2 Salidas: 5
  • 15.
    Redes competitivas (IV)Red competitiva resultante Vector de entradas que serán entrenados
  • 16.
    Redes competitivas (IV)… y se exporta la red resultante del entrenamiento (Clasifica) al espacio de trabajo de Matlab Resultado >> pesos = Clasifica.IW{1} pesos = 0.3590 0.7371 0.1307 0.4837 0.0333 0.2200 0.9015 0.5183 0.7791 0.7088
  • 17.
    Redes autoorganizadas Similara las redes de aprendizaje competitivo Se adaptan también las neuronas que pertenecen a una vecindad de la neurona ganadora
  • 18.
    Redes autoorganizadas (II)Regla de aprendizaje de Kohonen Sólo la vecindad Aprendizaje gradual
  • 19.
    Redes autoorganizadas (III)>>clasificador = newsom(z,[2 3],'hextop','linkdist',0.8,150,0.1,2);