Introducción a las bodegas de datos: qué son y para qué son. Metodologías para el diseño y construcción de una bodega de datos, procesos ETL e integración de tecnologías.
Este documento describe una estrategia genérica, aplicable a cualquier plataforma para la implementación y administración de DataWarehouse, cuyo principal objetivo es lograr el éxito, sustentabilidad y adaptabilidad del proyecto tanto a corto como largo plazo. La estrategia está enfocada principalmente en proyectos complejos, sin embargo puede emplearse en proyectos de cualquier envergadura.
Para asegurar el éxito de la solución, esta estrategia considera experiencias y elementos que en diversos proyectos han sido factores de fracaso o estanco, principalmente los relacionados a satisfacer nuevos requerimientos de los usuarios finales, en términos de calidad y confiabilidad de la información, agilidad en la adaptación a los cambios, facilidad en la creación de informes y cuadros de mando, rapidez en los tiempos de respuesta de las consultas y costo de la administración de la infraestructura, entre otros.
Finalmente, esta estrategia desarrolla conceptos claves, tales como la adaptación a los cambios, administración de procesos (Jobs), control de errores y mallas de procesos, elementos que son centrales en la estrategia EIAD y que han sido olvidados en la mayoría de la literatura relacionada a DataWarehouse, centradas principalmente en metodologías de administración de proyectos, creación de cubos y/o algunos procesos de carga.
Presente y futuro del mercado hipotecario Luis Pineda
Los días 8, 9 y 10 de abril de 2105 se celebró en la Universidad de Granada el foro "Presente y futuro del mercado hipotecario: la segunda oportunidad para consumidores y empresarios", evento en el que participaron profesionales y especialistas del mundo académico, judicial, registral, de la abogacía y bancario, entre los que se encontraba el presidente de Ausbanc, Luis Pineda.
En su ponencia, titulada ‘La eficiencia del mercado hipotecario frente a los consumidores, un reto para la justicia’, Luis Pineda, doctor en Derecho, profundizó en las causas que pueden llevar a un ciudadano a incumplir sus obligaciones de pago de forma transitoria. Una circunstancia que puede resultar muy grave para el ciudadano, “puesto que por un periodo puntual de incapacidad de pago pueden los ciudadanos llegar a perder incluso sus viviendas”, apuntó Pineda.
Para este defensor de los consumidores, en muchas ocasiones estas situaciones de incapacidad de pago no tienen su origen en circunstancias familiares o sociales, “sino que traen causa de la aplicación al contrato financiero que acapara el mayor importe de su deuda habitual, la hipoteca, cláusulas abusivas como la cláusula suelo o la de redondeo al alza”.
En este sentido, Luis Pineda reclamó a las entidades de crédito el cumplimiento de “inexcusables requisitos de transparencia e información no sólo en la fase precontractual, sino en el momento de la incorporación al contrato de las condiciones generales y, al momento posterior de la aplicación de las mismas durante toda la vida del contrato”.
Este documento describe una estrategia genérica, aplicable a cualquier plataforma para la implementación y administración de DataWarehouse, cuyo principal objetivo es lograr el éxito, sustentabilidad y adaptabilidad del proyecto tanto a corto como largo plazo. La estrategia está enfocada principalmente en proyectos complejos, sin embargo puede emplearse en proyectos de cualquier envergadura.
Para asegurar el éxito de la solución, esta estrategia considera experiencias y elementos que en diversos proyectos han sido factores de fracaso o estanco, principalmente los relacionados a satisfacer nuevos requerimientos de los usuarios finales, en términos de calidad y confiabilidad de la información, agilidad en la adaptación a los cambios, facilidad en la creación de informes y cuadros de mando, rapidez en los tiempos de respuesta de las consultas y costo de la administración de la infraestructura, entre otros.
Finalmente, esta estrategia desarrolla conceptos claves, tales como la adaptación a los cambios, administración de procesos (Jobs), control de errores y mallas de procesos, elementos que son centrales en la estrategia EIAD y que han sido olvidados en la mayoría de la literatura relacionada a DataWarehouse, centradas principalmente en metodologías de administración de proyectos, creación de cubos y/o algunos procesos de carga.
Presente y futuro del mercado hipotecario Luis Pineda
Los días 8, 9 y 10 de abril de 2105 se celebró en la Universidad de Granada el foro "Presente y futuro del mercado hipotecario: la segunda oportunidad para consumidores y empresarios", evento en el que participaron profesionales y especialistas del mundo académico, judicial, registral, de la abogacía y bancario, entre los que se encontraba el presidente de Ausbanc, Luis Pineda.
En su ponencia, titulada ‘La eficiencia del mercado hipotecario frente a los consumidores, un reto para la justicia’, Luis Pineda, doctor en Derecho, profundizó en las causas que pueden llevar a un ciudadano a incumplir sus obligaciones de pago de forma transitoria. Una circunstancia que puede resultar muy grave para el ciudadano, “puesto que por un periodo puntual de incapacidad de pago pueden los ciudadanos llegar a perder incluso sus viviendas”, apuntó Pineda.
Para este defensor de los consumidores, en muchas ocasiones estas situaciones de incapacidad de pago no tienen su origen en circunstancias familiares o sociales, “sino que traen causa de la aplicación al contrato financiero que acapara el mayor importe de su deuda habitual, la hipoteca, cláusulas abusivas como la cláusula suelo o la de redondeo al alza”.
En este sentido, Luis Pineda reclamó a las entidades de crédito el cumplimiento de “inexcusables requisitos de transparencia e información no sólo en la fase precontractual, sino en el momento de la incorporación al contrato de las condiciones generales y, al momento posterior de la aplicación de las mismas durante toda la vida del contrato”.
Big Data - Desarrollando soluciones efectivasJoseph Lopez
Como continuación a la presentación titulada "Introducción al mundo de las Bodegas de datos", esta presentación le explicará qué es Big Data y sus beneficios, incluyendo casos de uso. Así mismo, discutiremos cómo Hadoop, la nube y procesamiento masivamente paralelo (MPP) está cambiando la forma en los almacenes de datos se están construyendo. Hablaremos de arquitecturas híbridas que combinan datos in situ con datos en la nube, así como datos relacionales y no relacionales de datos (no estructurados). Veremos también los beneficios del MPP en SMP y cómo integrar datos desde dispositivos en la Internet (IoT). Aprenderemos también lo que debería verse como un almacén de datos moderno y cómo cuadra su papel de un mar de datos y Hadoop. Al finalizar esta exposición, tendremos una orientación sobre la mejor solución para el almacén de datos en el futuro.
Reinforcement Learning (RL) approaches to deal with finding an optimal reward based policy to act in an environment (Charla en Inglés)
However, what has led to their widespread use is its combination with deep neural networks (DNN) i.e., deep reinforcement learning (Deep RL). Recent successes on not only learning to play games but also superseding humans in it and academia-industry research collaborations like for manipulation of objects, locomotion skills, smart grids, etc. have surely demonstrated their case on a wide variety of challenging tasks.
With application spanning across games, robotics, dialogue, healthcare, marketing, energy and many more domains, Deep RL might just be the power that drives the next generation of Artificial Intelligence (AI) agents!
Esta charla se pregunta sobre el rol del Big Data en las Smart Cities y la construcción de la ciudad futura. Gracias al desarrollo de campos como el Data Science, Internet of Things y Urban Analytics, surgen nuevas maneras de comprender las dinámicas y los entornos urbanos.
Los "Entornos Naturalmente Inteligentes" son la visión de una ciudad futura, como un organismo vivo y complejo que se adapta, se transforma y se reinventa; este proceso, es una búsqueda constante por construir nuevas maneras más sostenibles de coexistir con otros sistemas.
Estamos en un momento fascinante en el área de salud. Hoy en día es posible tener diagnósticos clínicos muy oportunos y generar predicciones en tiempo real, lo cual abre espacios que impactarán a la sociedad de forma muy positiva. Uno de éstos es la medicina de precisión que trata de explotar insights de condiciones biológicas, de entorno y hábitos para mejorar de forma preventiva la salud en los individuos.
Llegó el momento... las predicciones del futuro son ahora y en Colombia ya se están dando los primeros pasos!
Ayudando a los Viajeros usando 500 millones de Reseñas Hoteleras al MesBig Data Colombia
TrustYou analiza reseñas de hoteles en linea para crear un resumen para cada hotel en el mundo: http://www.trust-score.com/ ;
Los datos procesados por TrustYou son integrados por servicios como Kayak, Trivago, HipMunk entre otros.
Cada semana analizamos la web para descargar 3 millones de reviews. Estos son analizados usando técnicas de lingüística computacional, procesamiento de lenguaje natural y aprendizaje de maquinas. Para ello usamos casi exclusivamente Python. En esta charla Miguel les contará qué estrategias y herramientas usa TrustYou para lograr este objetivo.
Presentador: Miguel Fernando Cabrera. (@mfcabrera) Ing. de Sistemas e Informática de la Universidad Nacional de Colombia (Medellin), M.Sc. en Computer Science de la TU Munich con un Honours en Administración Tecnológica del CDTM. Fundó y lideró hasta principio del 2015 Munich DataGeeks, un grupo de interés en ML y Data Science más Baviera. Actualmente trabaja como como Data Engineer / Scientist para TrustYou.
Deep learning: el renacimiento de las redes neuronalesBig Data Colombia
El deep learning, o aprendizaje profundo, ha revolucionado el panorama del aprendizaje automático, en particular, y de la inteligencia artificial, en general. Los modelos de redes neuronales profundas (con un gran número de capas) han permitido obtener avances importantes en diversas tareas de aprendizaje, percepción y análisis de datos, que van desde la clasificación de imágenes hasta el reconocimiento del habla.
En la charla se presentarán, de manera general, los fundamentos de estos modelos y diferentes casos de aplicación en aprendizaje de la representación, visión por computador y análisis de texto entre otros. Se revisarán los avances teóricos y tecnológicos que han permitido abordar estos complejos problemas y se discutirá la experiencia tecnológica y científica en proyectos de investigación adelantados en Colombia.
Presentador: Fabio Gonzalez. Profesor Titular del Depto. de Ingeniería de Sistemas e Industrial de la Universidad Nacional de Colombia, donde lidera el Laboratorio de aprendizaje, percepción y descubrimiento automático (MindLab). Su trabajo de investigación se concentra en el aprendizaje automático, la recuperación de información y la visión por computador, con aplicaciones en campos diversos como el análisis de imágenes médicas, el análisis automático de textos y el aprendizaje a partir de información multimodal, entre otros.
Un estudio reportado por la Harvard Business Review muestra las tres estrategias encontradas para explotar totalmente las capacidades de Big Data y Analytics en una organización, estas son: 1) identificar, combinar y manejar múltiples fuentes de datos. 2) Construir modelos analíticos avanzados para predecir y optimizar resultados. 3) Transformar las capacidades de la organización de tal forma que los datos utilizados y el análisis de los mismos lleven a tomar mejores decisiones. El modelo de Cloud computing sirve para cada uno de las capacidades anteriormente mencionadas.
https://www.youtube.com/watch?v=eXtWRkfMisM
Esta charla presentará conceptos introductorios de Machine Learning haciendo uso de kaggle.com (El portal de Data Scientists más grande del mundo). La charla se divide en:
1. Introducción a kaggle.com
2. Competencias de Machine Learning
3. Kaggle.com como sitio de contratación/búsqueda de trabajo
4. Cómo competir y obtener buenos resultados en competencias de ML
5. Ejemplos prácticos de competencias pasadas
https://www.youtube.com/watch?v=eXtWRkfMisM
Durante el 2012 el nivel de fraude en tarjeta de crédito llego a 11.3 billones de dólares, un aumento de casi un 15% comparado con el 2011, esto demuestra el problema que el fraude representa no solo a las instituciones financieras sino también para la sociedad. Tradicionalmente la prevención del fraude consistía en proteger físicamente la infraestructura, sin embargo con cada vez más medios y canales de pago, la información financiera se ha vuelto cada vez más susceptible a ser hurtada. La siguiente opción para prevenir y controlar el fraude consiste en determinar si una transacción está siendo realizada por el cliente de acuerdo con sus patrones históricos de comportamiento. Este es el enfoque de Fraud Analytics.
En esta presentación se mostrara cómo es posible por medio de Fraud Analytics, determinar la probabilidad que una transacción sea o no realizada por el cliente, utilizando la información de compra de los clientes, sus interacciones con la entidad financiera, y por medio de análisis de redes sociales. Adicionalmente, se discutirán y compararan los resultados de las comúnmente utilizadas reglas de decisión y modelos avanzados de Machine Learning.
Realizar análisis de datos cuando se tienen que cruzar grandes cantidades de información, procesarla y limpiarla es un reto difícil y dispendioso. Apache Spark es un framework para procesar grandes cantidades de información.
El mundo de Big Data y Data Science es altamente técnico, pero entender cuáles son sus ideas centrales no requiere súper poderes. Explicaremos en qué consiste esta fascinante tendencia tecnológica y sus principales conceptos, herramientas y posibilidades.
¿Wearables para medir el progreso de una enfermedad? ¿Otorgar préstamos usando información de redes sociales? ¿Usar un algoritmo para encontrar la pareja ideal? Éstas son algunas de las cosas que Big Data Analytics está haciendo posible hoy en día. Veremos éstos y otros ejemplos de emprendimientos que están cambiando las reglas del juego.
Datos y más datos !! ... Todos días la humanidad genera información por todas partes, saber agruparla y tratarla es la esencia del movimiento impulsado por el Big Data...pero, el impacto en los negocios es algo que pocos nos cuentan, este será el eje de nuestra charla, conozca cómo integrando Big Data al proceso de toma de decisiones las empresas logran ventajas competitivas de este universo de información.
Ipsos, empresa de investigación de mercados y opinión pública, divulgó su informe N°29 “Claves Ipsos” correspondiente al mes de abril, que encuestó a 800 personas con el fin de identificar las principales opiniones y comportamientos de las y los ciudadanos respecto de temas de interés para el país. En esta edición se abordó la a Carabineros de Chile, su evaluación, legitimidad en su actuar y el asesinato de tres funcionarios en Cañete. Además, se consultó sobre el Ejército y la opinión respecto de la marcha en Putre.
Diapositivas D.I.P.. sobre la importancia que tiene la interpol en HonduraspptxWalterOrdoez22
Es un conjunto de diapositivas creadas para la información sobre la importancia que tienen la interpol en honduras y los tratados entre ambas instituciones
3. Datos (*)Datos (*)
Son colecciones de
símbolos que se tienen
en una computadora.
Cualquier interpretación
de los datos para
fines humanos se llama
información.
(*) Bertrand Meyer – Touch of Class
3
4. DatawarehouseDatawarehouse
“Es un conjunto de datos
integrados y orientados a un
objetivo específico, que varían
con el tiempo (datos históricos)
y que no son transitorios.
Soportan el proceso de toma de
decisiones de la administración y
está orientada al manejo de
grandes volúmenes de datos
provenientes de diversas
fuentes…”
(Imhoff, 2003)
4
5. BI es un conjunto de procesos Tecnológicos que
transforman los datos en conocimiento
Conocimiento
Información
Datos
Datos + contexto
Información +
Know How
5Davenport, T. H., & Prusak, L. (2000)
6. Solución completa de BISolución completa de BI
ETLETL
CalidCalid
ad dead de
datosdatos
Tomador
de decisión
UsuariosUsuarios
InternosInternos
UsuariosUsuarios
ExternosExternos
AplicacionesAplicaciones
Arquitectura de datos
(Integración)
Data MartData Mart
Deptal.Deptal.
RapidRapid
MartsMarts
Acceso
Web
FinanzasFinanzas
I +DI +D
MercadeoMercadeo
VentasVentas
ServiciosServicios
PlaneaciòPlaneaciò
nn
OtrosOtros
OperacionesOperaciones
ConsultasConsultas
Ad hocAd hoc
IndicadoreIndicadore
ss
AnálisisAnálisis
(OLAP)(OLAP)
AnalíticasAnalíticas
por procesopor proceso
Minería deMinería de
DatosDatos
Aplicació
n
analítica
PlanningPlanning
PredictivaPredictiva
ss
ConsultasConsultas
predefinidaspredefinidas
InternasInternas
ERPERP
CRMCRM
OLSOLS
SCMSCM
NegocioNegocio
OtrosOtros
Fuentes de
datos
ExternasExternas
SociosSocios
MercadosMercados
CompetenciaCompetencia
EconomíaEconomía
IndustriaIndustria
OtrosOtros
ERPERP
CRMCRM
OLSOLS
SCMSCM
NegocioNegocio
OtrosOtros
ÁreaÁrea
TempoTempo
ralral
DataData
WarehouWarehou
sese
MetadatosMetadatos
6
7. Modelos Entidad-Relación vsModelos Entidad-Relación vs
Modelos DimensionalesModelos Dimensionales
Los modelos
relacionales se
normalizan buscando
eficiencia en términos
de la operación y el
almacenamiento.
Pueden incluir muchas
tablas.
Eficiencia en
actualización
Los modelos
analíticos se orientan
a COMPRENDER el
negocio.
Eficiencia en
consultas
7
8. Modelo Entidad – RelaciónModelo Entidad – Relación
Materia Cód.
Estudiante
Nombre
Estudiante
Ge
nero
Dirección
Estudiante
Teléfono Nota
Final
Derecho
Laboral
256490 Diana Torres F Calle 12 # 7-20 7601395 4.0
Derecho
Administrativ
o
256490 Diana Torres F Calle 12 # 7-20 7601395 4.3
Derecho
Laboral
256491 Camilo
Fernandez
M Diag 19 # 163-14 2127984 3.7
Derecho Penal 256491 Camilo
Fernandez
M Diag 19 # 163-14 2127984 3.9
8
9. Modelo Entidad – RelaciónModelo Entidad – Relación
(Normalización)(Normalización)
Cód.
Estudiante
Nombre
Estudiante
Genero Dirección
Estudiante
Teléfono
256490 Diana Torres F Calle 12 # 7-20 7601395
256491 Camilo Fernández M Diag 19 # 163-14 2127984
Cód.
Materia
Nombre
Materia
11001 Derecho Laboral
11002 Derecho Administrativo
11003 Derecho Penal
Cód.
Materia
Cód.
Estudiante
Nota
Final
11001 256490 4.0
11002 256490 4.3
11001 256491 3.7
11003 256491 3.9
Estudiantes
Materias
Notas
9
10. Modelo Entidad – RelaciónModelo Entidad – Relación (Ejemplo)(Ejemplo)
Tomado de [8]
10
12. Terminología DimensionalTerminología Dimensional
Tabla de Hechos:
◦ Es la tabla principal en un
datawarehouse.
◦ Almacena las medidas
numéricas de rendimiento
de los procesos
operacionales en relación
con diferentes perspectivas
de análisis.
12
16. DatamartDatamart
Se refiere a una área sujeto
del proceso de negocio
Bodegas de datos específicas
de un departamento o
dependencia de la empresa
Utilizados para almacenar
particularidades de un sector
o para optimizar las consultas
16
18. Enfoques del DatawarehouseEnfoques del Datawarehouse
Data MartData Mart
VentasVentas
Data MartData Mart
FinancieroFinanciero
Data MartData Mart
Servicio alServicio al
ClienteCliente
DataData
WarehouseWarehouseFuente 2Fuente 2Fuente 2Fuente 2
Fuente 1Fuente 1Fuente 1Fuente 1
Fuente 3Fuente 3Fuente 3Fuente 3
Top Down (Inmon)
18
Ventajas Desventajas
• Visión general del negocio
• No replica trabajo
• Unificación de modelos
• Tiempo de implementación
• Difícil distribución de trabajo y
esfuerzo
19. Enfoques del DatawarehouseEnfoques del Datawarehouse
DataData
WarehouseWarehouse
Data MartData Mart
Ventas
Data MartData Mart
Financiero
Data MartData Mart
Servicio al
Cliente
Fuente 2Fuente 2Fuente 2Fuente 2
Fuente 1Fuente 1Fuente 1Fuente 1
Fuente 3Fuente 3Fuente 3Fuente 3
Bottom-Up (Kimball)
19
Ventajas Desventajas
• Rápida implementación
• Fácil distribución de trabajo y esfuerzo
• Implementación por fases y áreas
• Posible replicación de trabajo
20. Metas del DatawarehouseMetas del Datawarehouse
El datawarehouse provee
acceso a los datos
corporativos
Debe servir como la base
para una toma de
decisiones mas informada
(con base en hechos).
Debe ser adaptativo y
resiliente al cambio
20
21. Metas del DatawarehouseMetas del Datawarehouse
Los datos en un
datawarehouse son
consistentes
La comunidad del negocio
debe aceptar al
datawarehouse como la
única verdad, si se piensa
ser exitoso.
21
22. Metas del DatawarehouseMetas del Datawarehouse
Los datos en un
datawarehouse pueden
ser separados y
combinados por cada
posible medida del
negocio (slice and dice)
Debe hacer que la
información sea
fácilmente accesible.
22
23. Metas del DatawarehouseMetas del Datawarehouse
La calidad de los datos
en el datawarehouse es
un conductor de la
reingeniería del negocio
Debe asegurar la
protección de la
información.
23
24. Metas del DatawarehouseMetas del Datawarehouse
El datawarehouse no es
solo datos, es un
conjunto de herramientas
para consultar, analizar y
presentar información.
24
25. Componentes de unComponentes de un
datawarehousedatawarehouse
Servicios:
Limpieza,
Combinación,
Estandarización,
Dimensiones comunes
Datos:
Archivos planos
Tablas relacionales
Procesamiento:
Ordenamiento
Procesamiento
secuencial
Data Mart #1
Dimensional
Nivel de detalle
Agregados
Basado en un solo
proceso de negocio
Data Mart #2
Consultas
“Ad Hoc”
Reporteadores
Aplicaciones
Analíticas
Modelos:
• Predicción
• Minería Datos
Extracción
Extracción
Extracción
Sistemas
Operacionales
Fuente
Area de preparación
de Datos (Staging)
Area de presentación
de Datos
Cargue
Cargue
Acceso
Acceso
Herramientas de
Acceso a los Datos
DW Bus:
Dimensiones
comunes y
Facts
25
26. Sistemas Operacionales FuenteSistemas Operacionales Fuente
Sistemas que capturan
y almacenan las
operaciones del
negocio.
Sus prioridades son
rendimiento y
disponibilidad.
Son sistemas
heterogéneos.
26
27. Área de preparación de datosÁrea de preparación de datos
(Staging)(Staging)
Es a la vez un área de
almacenamiento y un
conjunto de
procedimientos (ETL)
Esta fuera de los
limites de los usuarios
de negocio y no
provee servicios de
consulta ni de
presentación.
27
28. Área de presentación de datosÁrea de presentación de datos
Lugar donde los datos
son organizados,
almacenados y
disponibles para consulta
directa por parte de los
usuarios y otras
aplicaciones.
Constituido por una
serie de Data Marts que
en conjunto constituyen
la bodega de datos.
Usa modelos
dimensionales.
28
29. Herramientas de Acceso a DatosHerramientas de Acceso a Datos
(Visualización)(Visualización)
El término
visualización, se
refiere al conjunto
de herramientas
que se proveen a
los usuarios para
facilitar el proceso
de análisis de
información para la
toma de decisiones.
29
31. Modelo de EstrellaModelo de Estrella
Es muy utilizado.
Orientado a la
comprensión del
negocio
Reduce la
complejidad de
entendimiento y uso
Eficiente para
consultas.
31
32. Modelo de SnowflakeModelo de Snowflake
Las dimensiones han sido
normalizadas.
Las dimensiones en las cuales se
conforman jerarquías se pueden
descomponer en una estructura
de copo de nieve en la cual cada
relación muchos a uno se
manejan en tablas separadas.
La razón que se expone para su
uso es el ahorro de espacio de
almacenamiento.
32
33. Modelo de SnowflakeModelo de Snowflake
Este modelo es una variante del
modelo estrella.
Puede parecer más complejo
para el usuario.
Recomendación: Tenga en
cuenta el impacto de tener el
modelo de “copo de nieve” en
dimensiones grandes. Puede ser
que comprometa rendimiento y
navegabilidad.
33
34. Errores comunes para prevenirErrores comunes para prevenir
Error 10: Permanecer
“enamorado” de la
tecnología y los datos
mas que de los
requerimientos y
metas del negocio
Error 9: No hacer
equipo con un
gerente visionario,
influyente, accesible y
razonable que sea el
patrocinador del
datawarehouse
(Sponsor)
34
35. Errores comunes para prevenirErrores comunes para prevenir
Error 8: Emprender un
proyecto “galáctico” y
“milenario” antes que
perseguir un proyecto
mas manejable que vaya
creciendo por
iteraciones.
Error 7: Asignar
energía para construir
un modelo de datos
normalizado, buscando
ahorrar recursos
físicos en vez de
preferir la facilidad de
uso para el usario final.
35
36. Errores comunes para prevenirErrores comunes para prevenir
Error 6: Poner más
atención en el
rendimiento
operacional y facilidad
de desarrollo del “back-
room” que en el
rendimiento y facilidad
de uso del “front-
room”
Error 5: Los
diseñadores de base
de datos que
prefieren la
complejidad,
posteriormente
gastarán mucho
tiempo dando
soporte a los
usuarios.
36
37. Errores comunes para prevenirErrores comunes para prevenir
Error 4: Crear modelos
dimensionales en forma
aislada sin considerar
una arquitectura de
datos que conectada,
utilizando dimensiones
compartidas.
(No aplicar arquitectura de
bus)
Error 3: Cargar
únicamente datos
sumarizados en el
área de presentación
(Profundidad de análisis)
37
38. Errores comunes para prevenirErrores comunes para prevenir
Error 2: Presumir que
el negocio, sus
requerimientos,
analíticas, datos
subyacentes y la
tecnología que lo
soportan, son estáticos
Error 1: No
reconocer que el
éxito del data
warehouse está
asociado
directamente a la
aceptación de los
usuarios.
38