MEVSYS DATA MINING
KNOWLEDGE DISCOVERY
Exploración de variables
utilizadas por el modelo y
su valor predictivo.
2013 1
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
¿QUÉ ES KNOWLEDGE DISCOVERY?
Un modelo para campañas de marketing directo organiza clientes
según su probabilidad de compra del producto ofrecido. Con
solamente este score se puede utilizar la predicción.
Sin embargo, por solicitud del departamento de producto, la
empresa quería comprender qué variables eran predictivas y cómo
las utilizaba el modelo.
2013
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
2
VARIABLES
PREDICTIVAS
PROBABILIDAD
DE
COMPRA
INTERPRETACIÓN DE ÁRBOL DE DECISIÓN
La facilidad de interpretación del modelo depende del algoritmo utilizado. Los
árboles de decisión son uno de los modelos más intuitivos de interpretar, por lo
tanto específicamente creamos uno para encontrar relaciones entre variables.
Como se puede ver, un árbol de decisión usando una variable a la vez divide los
datos en diferentes ramas, que luego nuevamente divide utilizando otra variable. El
proceso se repite hasta que no se registre un incremento en el rendimiento.
2013
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
3
Un clásico y simple ejemplo
de árbol de decisión, en el
que se decide si es posible o
no jugar al golf.
MEJOR CONJUNTO DE REGLAS
2013
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
4
A medida que el árbol se divide, se forman conjuntos de reglas
basados en las variables. El siguiente es el mejor conjunto
encontrado por el modelo, es decir, aquel que resultaba en el grupo
de mayor tasa de respuesta.
1. VAR1 > 8
2. VAR2 <= 37
3. VAR3 > 0 * esta era una marca 0/1, por lo tanto la regla podría expresarse como VAR3 = 1.
4. VAR4 = 0 * otra variable marca.
5. VAR5 <= 24740
6. VAR6 > 272
Sabiendo qué representaban estas variables, la empresa pudo
obtener valiosa información acerca de qué tipo de clientes estaban
respondiendo a sus estímulos de compra.
PRIMERA DIVISIÓN DEL ÁRBOL
2013
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
5
punto medio = 8
+ tasa de respuesta
- tasa de respuesta
MODELOS COMPLEJOS
2013
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
6
Redes neuronales, máquinas de vectores soporte y otros algoritmos más complejos no
presentan reglas tan fáciles de leer; se los conoce como cajas negras dentro de las
cuales no mucho se puede ver.
Sin embargo, hay algunas maneras de analizar la importancia de las variables. Una
de ellas consiste en excluir una variable a la vez, registrando la caída en rendimiento
para cada una y por lo tanto pudiendo calcular un valor predictivo relativo.
VAR1 0,1291
VAR2 0,1036
VAR3 0,0961
VAR4 0,0884
VAR5 0,0860
VAR6 0,0830
VAR7 0,0794
VAR8 0,0644
VAR9 0,0320
VAR10 0,0262 0,0000
0,0200
0,0400
0,0600
0,0800
0,1000
0,1200
0,1400
GRÁFICOS DE CORRELACIÓN
2013
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
7
Una vez determinadas las variables con mayor valor predictivo,
realizamos gráficos para observar su correlación con la tasa de
respuesta y así poder analizar relaciones visualmente.
+ tasa de respuesta
(correlación negativa)
RESUMEN
2013
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
8
Si bien en este caso el árbol de decisión no rendía tan bien
como el modelo utilizado para las campañas, resultó ser una
buena herramienta para descubrir reglas intuitivas.
Por otro lado, establecimos la importancia relativa de cada
variable y examinamos su correlación con la tasa de respuesta.
A menudo sorprendíamos al cliente, descubriendo relaciones
que nunca habían imaginado o inclusive contradiciendo sus
presuposiciones.
Knowledge discovery en data mining permite examinar las
relaciones entre las variables más importantes sin tener que
hacer una minuciosa búsqueda manual por todas ellas,
logrando enfocarnos en las variables más importantes.
MEVSYS.COM
INFO@MEVSYS.COM
2013
2013 9
PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS
LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES

Mevsys Data Mining: Knowledge Discovery.

  • 1.
    MEVSYS DATA MINING KNOWLEDGEDISCOVERY Exploración de variables utilizadas por el modelo y su valor predictivo. 2013 1 PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES
  • 2.
    ¿QUÉ ES KNOWLEDGEDISCOVERY? Un modelo para campañas de marketing directo organiza clientes según su probabilidad de compra del producto ofrecido. Con solamente este score se puede utilizar la predicción. Sin embargo, por solicitud del departamento de producto, la empresa quería comprender qué variables eran predictivas y cómo las utilizaba el modelo. 2013 PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES 2 VARIABLES PREDICTIVAS PROBABILIDAD DE COMPRA
  • 3.
    INTERPRETACIÓN DE ÁRBOLDE DECISIÓN La facilidad de interpretación del modelo depende del algoritmo utilizado. Los árboles de decisión son uno de los modelos más intuitivos de interpretar, por lo tanto específicamente creamos uno para encontrar relaciones entre variables. Como se puede ver, un árbol de decisión usando una variable a la vez divide los datos en diferentes ramas, que luego nuevamente divide utilizando otra variable. El proceso se repite hasta que no se registre un incremento en el rendimiento. 2013 PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES 3 Un clásico y simple ejemplo de árbol de decisión, en el que se decide si es posible o no jugar al golf.
  • 4.
    MEJOR CONJUNTO DEREGLAS 2013 PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES 4 A medida que el árbol se divide, se forman conjuntos de reglas basados en las variables. El siguiente es el mejor conjunto encontrado por el modelo, es decir, aquel que resultaba en el grupo de mayor tasa de respuesta. 1. VAR1 > 8 2. VAR2 <= 37 3. VAR3 > 0 * esta era una marca 0/1, por lo tanto la regla podría expresarse como VAR3 = 1. 4. VAR4 = 0 * otra variable marca. 5. VAR5 <= 24740 6. VAR6 > 272 Sabiendo qué representaban estas variables, la empresa pudo obtener valiosa información acerca de qué tipo de clientes estaban respondiendo a sus estímulos de compra.
  • 5.
    PRIMERA DIVISIÓN DELÁRBOL 2013 PARA PROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES 5 punto medio = 8 + tasa de respuesta - tasa de respuesta
  • 6.
    MODELOS COMPLEJOS 2013 PARA PROTEGERLA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES 6 Redes neuronales, máquinas de vectores soporte y otros algoritmos más complejos no presentan reglas tan fáciles de leer; se los conoce como cajas negras dentro de las cuales no mucho se puede ver. Sin embargo, hay algunas maneras de analizar la importancia de las variables. Una de ellas consiste en excluir una variable a la vez, registrando la caída en rendimiento para cada una y por lo tanto pudiendo calcular un valor predictivo relativo. VAR1 0,1291 VAR2 0,1036 VAR3 0,0961 VAR4 0,0884 VAR5 0,0860 VAR6 0,0830 VAR7 0,0794 VAR8 0,0644 VAR9 0,0320 VAR10 0,0262 0,0000 0,0200 0,0400 0,0600 0,0800 0,1000 0,1200 0,1400
  • 7.
    GRÁFICOS DE CORRELACIÓN 2013 PARAPROTEGER LA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES 7 Una vez determinadas las variables con mayor valor predictivo, realizamos gráficos para observar su correlación con la tasa de respuesta y así poder analizar relaciones visualmente. + tasa de respuesta (correlación negativa)
  • 8.
    RESUMEN 2013 PARA PROTEGER LACONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES 8 Si bien en este caso el árbol de decisión no rendía tan bien como el modelo utilizado para las campañas, resultó ser una buena herramienta para descubrir reglas intuitivas. Por otro lado, establecimos la importancia relativa de cada variable y examinamos su correlación con la tasa de respuesta. A menudo sorprendíamos al cliente, descubriendo relaciones que nunca habían imaginado o inclusive contradiciendo sus presuposiciones. Knowledge discovery en data mining permite examinar las relaciones entre las variables más importantes sin tener que hacer una minuciosa búsqueda manual por todas ellas, logrando enfocarnos en las variables más importantes.
  • 9.
    MEVSYS.COM INFO@MEVSYS.COM 2013 2013 9 PARA PROTEGERLA CONFIDENCIALIDAD DEL CLIENTE CIERTAS REFERENCIAS HAN SIDO OMITIDAS Y/O GENERALIZADAS LOS PORCENTAJES Y RESULTADOS SON LOS ORIGINALES