1. Guías de Implementación
La gestión de un almacén de datos se aplican a la gestión de Big Data: garantizar que las fuentes de datos sean confiables,
tener Metadatos.
Ejemplo:
Dataddo:Basada en la nube y sin codificación que cuenta con una amplia gama de conectores. Le ofrece la posibilidad de elegir sus propias
métricas y atributos.
Knime:Es una herramienta de código abierto; compatible con los sistemas operativos Linux, OS X y Windows.
HPCC:Se trata de una solución completa de big data. Esta herramienta está escrita en C++
Un Centro de Excelencia puede proporcionar capacitación, sets de inicio, diseñar mejores prácticas, consejos y trucos para el suministro de
datos
Arquitecto de plataforma Big Data: Hardware.
Arquitecto de Ingestión.
Especialista de Metadatos.
Líder de Diseño Analítico.
Ciclo de vida de la Información
Metadatos
Calidad de los datos
Adquisición de datos
Acceso a datos y
seguridadGobierno de
datos Privacidad de
datos Aprendizaje y
adopción Operaciones
Evalúe los factores críticos de éxito:
• Relevancia comercial.
• Disponibilidad comercial.
• Viabilidad económica.
• Prototipo.
Las decisiones más desafiantes se centrarán en la adquisición de datos, el desarrollo de plataformas y los recursos.
2. Big Data y Gobierno de Ciencia de Datos
• Big Data, como otros datos, requiere gobierno
• Datos Fuente
• Intercambio
• Metadatos
• Acceso
• Enriquecimiento
• Gestión de Mecanismos de Visualización :Dependiendo del tamaño y la naturaleza de la organización, probablemente haya muchas herramientas de visualización diferentes
utilizadas en diferentes procesos
Ciencia de Datos y Estándares de Visualización:Estandarización de herramientas por paradigma analítico solicitud de nuevos datos
Estándar de proceso Conjunto de Datos (Data Set)
Seguridad de los Datos:A menudo las organizaciones crean políticas de acceso a la información que no deben ser violadas (como restricción del acceso por nombre, dirección o
número de teléfono).
Metadatos: Los Metadatos deben ser manejados cuidadosamente como parte de la ingesta de datos, o el Data Lake se convertirá rápidamente en un pantano de datos.
Calidad de los Datos: En los proyectos de Big Data, puede ser difícil determinar la calidad de los datos, pero un esfuerzo es necesario para evaluar la calidad con el fin de tener
confianza en el análisis.
Mapeo
Perfilamiento
Clasificación
Descubrimiento
Métricas:
Métricas de Uso Técnico:El análisis de uso técnico busca focos de datos
Métricas de Carga y Lectura:La capa de aplicación probablemente ofrece las mejores métricas de uso de los datos de registros de ejecución. Monitoree
el consumo o el acceso a través de Metadatos disponibles,
Aprendizajes e Historias:Las Métricas pueden incluir la cuantificación de los beneficios, la prevención o reducción de costos, así como la cantidad
de tiempo entre el comienzo y la obtención de beneficios.
Conteos y precisión de los modelos y patrones desarrollados
Generación de ingresos de oportunidades identificadas
La reducción de costos de evitar amenazas identificadas