El documento describe los pasos para realizar pruebas en un almacén de datos (DWH) que utiliza el paradigma de modelado Data Vault. Explica que se deben usar ambientes separados para desarrollo, pruebas y producción. También detalla los tipos de datos y casos de prueba necesarios para validar la extracción, transformación y carga de datos en las capas cruda y homologada del DWH.
http://summit.solidq.com
Aprovecha las novedades en el motor SQL Server 2016 para analizar información operacional. ¿Y si no tengo 2016? ¿Qué estrategias puedo llevar a cabo?
La plataforma de datos tradicional ha muerto, ha nacido una nueva plataforma de datos ubicua. Virtualizacion de datos, plataformas hibridas donde el dato no existe en una única fuente y escala sin limites. Estamos en la epoca donde realmente existe una plataforma de datos moderna. En esta sesión hablaremos del estado actual de la plataforma de datos en Microsoft
http://summit.solidq.com
Es innegable que los motores de BBDD transaccionales deben adaptarse a la posibilidad de gestionar datos no estructurados. Microsoft en SQL Server 2016 incluye un motor nuevo (llamado Polybase) que permite acceder con lenguaje Transact SQL a datos no estructurados y poder mezclarlos con datos estructurados. En esta sesión conocerá este nuevo motor y cómo empezar a integrar datos no estructurados en sus bases de datos transaccionales.
Desarrollar para la nube no es tan transparente como creemos. Conocer correctamente este nuevo entorno, así como sus limitaciones nos ayudarán a evitar problemas de escalabilidad. En esta sesión veremos cómo desarrollar correctamente soluciones para la nube de Microsoft que sean escalables. Veremos ejemplos de lo que no es escalable y también veremos cómo podemos solucionarlo y evitarlo. Hablaremos de patrones de arquitectura, Unity, Entity Framework, capas de acceso a datos, worker roles, web roles,… escalabilidad!
http://summit.solidq.com
Aprovecha las novedades en el motor SQL Server 2016 para analizar información operacional. ¿Y si no tengo 2016? ¿Qué estrategias puedo llevar a cabo?
La plataforma de datos tradicional ha muerto, ha nacido una nueva plataforma de datos ubicua. Virtualizacion de datos, plataformas hibridas donde el dato no existe en una única fuente y escala sin limites. Estamos en la epoca donde realmente existe una plataforma de datos moderna. En esta sesión hablaremos del estado actual de la plataforma de datos en Microsoft
http://summit.solidq.com
Es innegable que los motores de BBDD transaccionales deben adaptarse a la posibilidad de gestionar datos no estructurados. Microsoft en SQL Server 2016 incluye un motor nuevo (llamado Polybase) que permite acceder con lenguaje Transact SQL a datos no estructurados y poder mezclarlos con datos estructurados. En esta sesión conocerá este nuevo motor y cómo empezar a integrar datos no estructurados en sus bases de datos transaccionales.
Desarrollar para la nube no es tan transparente como creemos. Conocer correctamente este nuevo entorno, así como sus limitaciones nos ayudarán a evitar problemas de escalabilidad. En esta sesión veremos cómo desarrollar correctamente soluciones para la nube de Microsoft que sean escalables. Veremos ejemplos de lo que no es escalable y también veremos cómo podemos solucionarlo y evitarlo. Hablaremos de patrones de arquitectura, Unity, Entity Framework, capas de acceso a datos, worker roles, web roles,… escalabilidad!
Otras Novedades (Always Encrypted, Row-Level Security, Mejoras AG)SolidQ
http://summit.solidq.com
En esta sesión verá otras novedades de SQL Server 2016, no tan publicitadas en su lanzamiento. Trataremos las novedades en cuestiones de seguridad y Grupos de Disponibilidad.
Sabes que es un almacén de datos? Por qué utilizarlo? Como crearlo? Que modelo utilizar, si normalizado o dimensional? Cual metodología, Kimball o Inmon? Que modelo de tablas? Almacén de datos o Data Mart. Infraestructura de Hardware. Big Data, la nueva moda empresarial. Durante esta sesión les explicare todas estas inquietudes.
Introducción a Microsoft Azure SQL Data WarehouseJoseph Lopez
El nuevo Microsoft Azure SQL Data Warehouse (SQL DW) es un versátil servicio de almacén de datos que provee una solución Massively Parallel Processing (MPP) para "Big data" con verdaderas características de alta infraestructura empresarial. El servicio SQL DW está construido para la carga de datos en ejecución de unos cien gigabytes hasta petabytes de datos con características únicas como cálculo desagregado, permitiendo así que los clientes sean capaces de utilizar el servicio para satisfacer sus necesidades de almacenamiento. En la presente exposición les mostrare una mirada en profundidad de este nuevo servicio de Azure como la implementación, el escalamiento elástico (Grow, Shrink, y Pause), y las nubes de datos híbrida con integración de Hadoop a través Polybase permitiendo una verdadera experiencia de SQL a través de datos estructurados y no estructurados.
Recuperación ante desastres y continuidad del negocio con Azure SQL DatabaseJoseph Lopez
La continuidad de un negocio implica el diseño, la implementación y la ejecución de todas las aplicaciones que hoy en día sirven de operabilidad en las compañías bajo cualquier escenario de negocio, de manera que las mismas sean resistentes a los eventos de interrupción, planeados o no planeados, que provocan la pérdida permanente o temporal de la capacidad de cualquiera aplicación para realizar efectivamente su función empresarial. Entre los eventos no planeados se incluyen desde los errores humanos hasta las interrupciones permanentes o temporales, pasando por los desastres regionales que pueden provocar la pérdida a gran escala de la instalación en una determinada región de Azure. Los eventos planificados incluyen la reimplementación de la aplicación en una región diferente, la aplicación de actualizaciones de aplicaciones, etc. El objetivo de la continuidad del negocio es que su aplicación siga funcionando durante estos eventos con un impacto mínimo en la función empresarial que desempeña. En la presente sesión, estaré impartiendole de forma sencilla cuáles deberían ser las herramientas y sus respectivos tips para mantener en perfecto estado de ejecución, las bases de datos SQL Database en Azure de cualquier escalabilidad ante cualquier escenario de desastre.
En esta sesión trataremos las novedades de SQL Server 2014 en el área de motor relacional. Trataremos en profunidad las siguientes tecnologías: Buffer Pool Extension, mejoras en Resource Governor 2.0, novedades en índices columnares indexes, mejoras en particionado, estadísticas e indexación
SolidQ Summit 2018 - Qué necesita saber un DBA de Integration ServicesSolidQ
http://bit.ly/SQSummit
Aprende que puede aportar SSIS en las labores diarias de un DBA, desde las tareas más simples hasta cómo administrar fácilmente el servicio.
Presentación donde se habla sobre una implementación de DW on premises y en la nube, y también como Azure Data Factory nos ayuda en la integración de los datos.
Aseguramiento de calidad en aplicaciones móvilesSoftware Guru
En esta sesión platicaremos sobre los distintos aspectos que engloba el aseguramiento de calidad de aplicaciones móviles, las particularidades que presenta y cómo podemos apoyarnos en herramientas y prácticas para obtener mejores resultados.
Otras Novedades (Always Encrypted, Row-Level Security, Mejoras AG)SolidQ
http://summit.solidq.com
En esta sesión verá otras novedades de SQL Server 2016, no tan publicitadas en su lanzamiento. Trataremos las novedades en cuestiones de seguridad y Grupos de Disponibilidad.
Sabes que es un almacén de datos? Por qué utilizarlo? Como crearlo? Que modelo utilizar, si normalizado o dimensional? Cual metodología, Kimball o Inmon? Que modelo de tablas? Almacén de datos o Data Mart. Infraestructura de Hardware. Big Data, la nueva moda empresarial. Durante esta sesión les explicare todas estas inquietudes.
Introducción a Microsoft Azure SQL Data WarehouseJoseph Lopez
El nuevo Microsoft Azure SQL Data Warehouse (SQL DW) es un versátil servicio de almacén de datos que provee una solución Massively Parallel Processing (MPP) para "Big data" con verdaderas características de alta infraestructura empresarial. El servicio SQL DW está construido para la carga de datos en ejecución de unos cien gigabytes hasta petabytes de datos con características únicas como cálculo desagregado, permitiendo así que los clientes sean capaces de utilizar el servicio para satisfacer sus necesidades de almacenamiento. En la presente exposición les mostrare una mirada en profundidad de este nuevo servicio de Azure como la implementación, el escalamiento elástico (Grow, Shrink, y Pause), y las nubes de datos híbrida con integración de Hadoop a través Polybase permitiendo una verdadera experiencia de SQL a través de datos estructurados y no estructurados.
Recuperación ante desastres y continuidad del negocio con Azure SQL DatabaseJoseph Lopez
La continuidad de un negocio implica el diseño, la implementación y la ejecución de todas las aplicaciones que hoy en día sirven de operabilidad en las compañías bajo cualquier escenario de negocio, de manera que las mismas sean resistentes a los eventos de interrupción, planeados o no planeados, que provocan la pérdida permanente o temporal de la capacidad de cualquiera aplicación para realizar efectivamente su función empresarial. Entre los eventos no planeados se incluyen desde los errores humanos hasta las interrupciones permanentes o temporales, pasando por los desastres regionales que pueden provocar la pérdida a gran escala de la instalación en una determinada región de Azure. Los eventos planificados incluyen la reimplementación de la aplicación en una región diferente, la aplicación de actualizaciones de aplicaciones, etc. El objetivo de la continuidad del negocio es que su aplicación siga funcionando durante estos eventos con un impacto mínimo en la función empresarial que desempeña. En la presente sesión, estaré impartiendole de forma sencilla cuáles deberían ser las herramientas y sus respectivos tips para mantener en perfecto estado de ejecución, las bases de datos SQL Database en Azure de cualquier escalabilidad ante cualquier escenario de desastre.
En esta sesión trataremos las novedades de SQL Server 2014 en el área de motor relacional. Trataremos en profunidad las siguientes tecnologías: Buffer Pool Extension, mejoras en Resource Governor 2.0, novedades en índices columnares indexes, mejoras en particionado, estadísticas e indexación
SolidQ Summit 2018 - Qué necesita saber un DBA de Integration ServicesSolidQ
http://bit.ly/SQSummit
Aprende que puede aportar SSIS en las labores diarias de un DBA, desde las tareas más simples hasta cómo administrar fácilmente el servicio.
Presentación donde se habla sobre una implementación de DW on premises y en la nube, y también como Azure Data Factory nos ayuda en la integración de los datos.
Aseguramiento de calidad en aplicaciones móvilesSoftware Guru
En esta sesión platicaremos sobre los distintos aspectos que engloba el aseguramiento de calidad de aplicaciones móviles, las particularidades que presenta y cómo podemos apoyarnos en herramientas y prácticas para obtener mejores resultados.
DukeScript: HTML5 y JavaScript desde JavaSoftware Guru
DukeScript es una nueva tecnología para desarrollar aplicaciones de escritorio, web y moviles multiplataforma, haciendo nuevamente realidad la promesa de Java: Writes Once, Run Everywhere...
Las aplicaciones desarrolladas con DukeScript son realmente programas planos en Java que internamente usan HTML 5 y JavaScript para ejecutar las vistas en los diferentes dispositivos. De esta forma solamente se necesita desarrollar codigo en Java que utilize los adelantos tecnológicos en el diseño de las interfaces de usuario.
La charla estará enfocada en mostrar las posibilidad de este framework.
The values from the Agile Manifesto don’t seem to say much about the craft of software engineering. In fact, they don’t say anything about engineering at all. However, digging a little bit deeper, one quickly realizes that the benefits of Agile methods and practices cannot be realized with low quality software. Agile depends on engineering excellence.
So forget about Agile for a moment, at least the process side of things, and pay attention to the craft of software engineering; or in other words pay attention to building software the right way. Because only then you will be able to rapidly and continuously build the right software.
Expondremos como el modelo de negocios de Red Hat refleja el mundo altamente interconectado en el cual vivimos donde las ideas y la información pueden compartirse mundialmente en segundos.
¿Cómo convertirse en un Tester de verdad?Software Guru
¿Cómo convertirse en un Tester de verdad?
¿Tester de verdad? En México, existen organizaciones que siguen sin ver la importancia de incluir el testing en el desarrollo de software aún con las pérdidas millonarias que esto ocasiona a nivel global. No obstante en esa pequeña parte del subconjunto de organizaciones que SI agregan al testing en su metodología, hay algunas que lo agregan con el objetivo de: “verificar que todo esté bien“ . . .pero esos. . . esos no son testers.
¿Cómo convertirse en un tester de verdad?
La presentación pretende cubrir algunos puntos relacionados a:
- El objetivo del testing.
- El estatus del testing en México y a nivel global.
- La curiosidad, creatividad y pensamiento lateral como herramientas fundamentales del tester.
- La importancia de la adaptación al contexto.
- Testing basado en riesgo.
- Testing vs Checking.
- El rol del tester.
Given at Oracle Open World 2011: Not to be confused with Oracle Database Vault (a commercial db security product), Data Vault Modeling is a specific data modeling technique for designing highly flexible, scalable, and adaptable data structures for enterprise data warehouse repositories. It has been in use globally for over 10 years now but is not widely known. The purpose of this presentation is to provide an overview of the features of a Data Vault modeled EDW that distinguish it from the more traditional third normal form (3NF) or dimensional (i.e., star schema) modeling approaches used in most shops today. Topics will include dealing with evolving data requirements in an EDW (i.e., model agility), partitioning of data elements based on rate of change (and how that affects load speed and storage requirements), and where it fits in a typical Oracle EDW architecture. See more content like this by following my blog http://kentgraziano.com or follow me on twitter @kentgraziano.
Agile Data Warehouse Modeling: Introduction to Data Vault Data ModelingKent Graziano
This is a presentation I gave at OUGF14 in Helsinki, Finland.
Data Vault Data Modeling is an agile data modeling technique for designing highly flexible, scalable, and adaptable data structures for enterprise data warehouse repositories. It is a hybrid approach using the best of 3NF and dimensional modeling. It is not a replacement for star schema data marts (and should not be used as such). This approach has been used in projects around the world (Europe, Australia, USA) for the last 10 years but is still not widely known or understood. The purpose of this presentation is to provide attendees with a detailed introduction to the components of the Data Vault Data Model, what they are for and how to build them. The examples will give attendees the basics for how to build, and design structures incrementally, without constant refactoring, when using the Data Vault modeling technique. This technique works well for:
• Building the Enterprise Data Warehouse repository in a CIF architecture
• Building a Persistent Staging Area (PSA) in a Kimball Bus Architecture
• Building your data model incrementally, one sprint at a time using a repeatable technique
• Providing a model that is easily extensible without need to re-engineer existing structure or load processes
Not to be confused with Oracle Database Vault (a commercial db security product), Data Vault Modeling is a specific data modeling technique for designing highly flexible, scalable, and adaptable data structures for enterprise data warehouse repositories. It is not a replacement for star schema data marts (and should not be used as such). This approach has been used in projects around the world (Europe, Australia, USA) for the last 10 years but is still not widely known or understood. The purpose of this presentation is to provide attendees with a detailed introduction to the technical components of the Data Vault Data Model, what they are for and how to build them. The examples will give attendees the basics for how to build, and design structures when using the Data Vault modeling technique. The target audience is anyone wishing to explore implementing a Data Vault style data model for an Enterprise Data Warehouse, Operational Data Warehouse, or Dynamic Data Integration Store. See more content like this by following my blog http://kentgraziano.com or follow me on twitter @kentgraziano.
En lugar de aprovisionar grandes recursos para tu DW, Azure ofrece una versión especial de SQL Server como DataWarehouse. Si está familiarizado con el appliance APS, SQLDW en Azure viene a ser su versión como servicio. Usted crea su DW desde el portal de Azure y ya puede empezar a cargar datos y explotarlos. En esta sesión veremos cómo habilitar el servicio y cómo empezar a explotar SQLDW como tu DW en la nube.
Datawarehouse como servicio en Azure (sqldw)SolidQ
http://summit.solidq.com
En lugar de aprovisionar grandes recursos para tu DW, Azure ofrece una versión especial de SQL Server como DataWarehouse. Si está familiarizado con el appliance APS, SQLDW en Azure viene a ser su versión como servicio. Usted crea su DW desde el portal de Azure y ya puede empezar a cargar datos y explotarlos. En esta sesión veremos cómo habilitar el servicio y cómo empezar a explotar SQLDW como tu DW en la nube.
¿Cómo implementar la analítica empresarial en tiempo real?Denodo
Watch full webinar here: https://bit.ly/3oWOneG
Las técnicas de análisis en tiempo real prometen enriquecer los análisis tradicionales de datos en tiempo real. Esto es clave para muchos escenarios, como la gestión de la cadena de suministro o la atención al cliente. La virtualización de datos es bien conocida por ofrecer conectividad en tiempo real a diversas fuentes y capacidades de federación: los dos ingredientes básicos para la analítica en tiempo real. Sin embargo, construir una estrategia en torno a estos conceptos puede ser un reto. A menudo se menciona el impacto de las fuentes de datos delicadas, la seguridad y los problemas de rendimiento.
Asiste a este webinar para aprender más sobre:
- Cuáles son los escenarios en los que el valor de la analítica en tiempo real puede marcar la diferencia.
- Las capacidades básicas que las hacen posibles
- Las mejores prácticas clave para que tengan éxito
Esta presentación es el fruto de la colaboración entre Oracle Ibérica y Yo cuando prestaba servicios a Thales information Systems, es un estudio previo de la consolidación de varias bases de datos con la información de todos los aeropuertos españoles, en una única fuente de datos.
Conociendo los cambios de SQL Server a partir de 2012 a 2016Joseph Lopez
En la presente charla, les estare mostrando los cambios y mejoras mas relevantes que se generaron en el servidor de base de datos SQL Server de Microsoft a partir de la version 2012 hasta llegar a la version 2016 con faciles demostraciones para entender dichos cambios.
Cómo nos va a ayudar la tecnología de in memory en sql server 2014 para desem...SpanishPASSVC
Esta es una sesión en donde se detalla como esta tecnología nos puede ayudar a que el desempeño de bases de datos y de aplicaciones puede mejorar con la adopción y utilización de la misma. La sesión es “intensiva en demos” para reflejar lo dramático de los incrementos en desempeño al usar In-Memory.
Resumen de nuevas caracteriscitas de sql server 2008Salvador Ramos
Version resumida de otra de las presentaciones que tengo aqui publicadas. Incluye tanto las nuevas caracteristicas del motor relacional y Transact-SQL, como las de Integration Services, Analysis Servcies y Reporting Services. Algunas de ellas son: instrucción Merge, datos geoespaciales, Resource Governor, etc.
Similar a Construyendo pruebas para un DWH usando un paradigma de modelado Data Vault (20)
Estructuras de datos avanzadas: Casos de uso realesSoftware Guru
La utilización de estructuras de datos adecuadas para cada problema hace que se simplifiquen en gran medida los tiempos de respuestas y la cantidad de cómputo realizada.
Por Nelson González
Onboarding new members into an engineering team is not easy on anyone. In a short period of time, the new team member is required to be able to bring professional
Por Victoriya Kalmanovich
El secreto para ser un desarrollador SeniorSoftware Guru
En esta charla platicaremos sobre el “secreto” y el camino para llegar a ser un desarrollador Senior, experiencia, consejos y recomendaciones que en estos 8 años
Por René Sandoval
Apache Airflow es una plataforma en la que podemos crear flujos de datos de manera programática, planificarlos y monitorear de manera centralizada.
Por Yesi Díaz
How thick data can improve big data analysis for business:Software Guru
En esta presentación hablaré sobre cómo el Análisis de Datos Gruesos, específicamente el análisis antropológico y semiótico, puede ayudar a mejorar los resultados del Big Data
Por Martin Cuitzeo
CoDi® es la nueva forma de realizar pagos digitales desarrollada por el Banco de México. Por medio de CoDi puedes realizar cobros y pagos desde tu celular, utilizando una cuenta bancaria o de alguna institución financiera, sin comisiones.
Por Cristian Jaramillo
Gestionando la felicidad de los equipos con Management 3.0Software Guru
En las metodologías agiles hablamos de equipos colaborativos, autogestionados y felices. hablamos de lideres serviciales. El management 3.0 nos ayuda a cultivar el mindset correcto, aquel que servirá como el terreno fértil para que la agilidad florezca.
Por Andrea Vélez Cárdenas
Taller: Creación de Componentes Web re-usables con StencilJSSoftware Guru
Hoy por hoy las experiences de usuario pueden ser enriquecidas mediante el uso de Web Components, que son un estándar de la W3C soportado por la mayoría de los navegadores web modernos.
Por Alex Arriaga
Así publicamos las apps de Spotify sin stressSoftware Guru
En Spotify tenemos 1600+ ingenieros, trabajando en 280+ squads. Aún a esta escala, hemos logrado adoptar prácticas que nos han permitido acelerar la forma en que desarrollamos nuestro producto. Presentado por Erick Camacho en SG Virtual Conference 2020
Achieving Your Goals: 5 Tips to successfully achieve your goalsSoftware Guru
he measure of the executive, Peter F. Drucker reminds us, is the ability to "get the right things done." This involves having clarity on what are the right things as well as avoiding what is unproductive. Intelligence, creativity, and knowledge may all be wasted if not put to work on the things that matter.
Presentado por Cristina Nistor en SG Virtual Conference 2020
Acciones de comunidades tech en tiempos del Covid19Software Guru
Acciones de Comunidades Tech en tiempo del COVID-19 es una platica para informar acerca de las acciones que están realizando algunas comunidades de tecnología en México para luchar contra la propagación del COVID-19. Desde análisis de datos, visualizaciones, simulaciones de contagio, etc.
Presentado por Juana Martínez, Adriana Vallejo y Eduardo Ramírez en SG Virtual Conference 2020
De lo operativo a lo estratégico: un modelo de management de diseñoSoftware Guru
La charla presenta un modelo claro, generado por la ponente, para atender los niveles desde lo operativo a lo estratégico.
Presentado por Gabriela Salinas en SG Virtual Conference
Escaneo y eliminación de malware en el equiponicromante2000
El malware tiene muchas caras, y es que los programas maliciosos se reproducen en los ordenadores de diferentes formas. Ya se trate de virus, de programas espía o de troyanos, la presencia de software malicioso en los sistemas informáticos siempre debería evitarse. Aquí te muestro como trabaja un anti malware a la hora de analizar tu equipo
Si bien los hospitales conjuntan a profesionales de salud que atienden a la población, existe un equipo de organización, coordinación y administración que permite que los cuidados clínicos se otorguen de manera constante y sin obstáculos.
Mario García Baltazar, director del área de Tecnología (TI) del Hospital Victoria La Salle, relató la manera en la que el departamento que él lidera, apoyado en Cirrus y Estela, brinda servicio a los clientes internos de la institución e impulsa una experiencia positiva en el paciente.
Conoce el Hospital Victoria La Salle
Ubicado en Ciudad Victoria, Tamaulipas, México
Inició operaciones en el 2016
Forma parte del Consorcio Mexicanos de Hospitales
Hospital de segundo nivel
21 habitaciones para estancia
31 camas censables
13 camillas
2 quirófanos
+174 integrantes en su plantilla
+120 equipos médicos de alta tecnología
+900 pacientes atendidos
Servicios de +20 especialidades
Módulos utilizados de Cirrus
HIS
EHR
ERP
Estela - Business Intelligence
Construyendo pruebas para un DWH usando un paradigma de modelado Data Vault
1. Construyendo pruebas para un
DWH usando un paradigma de
modelado Data Vault
Presenta:
Tania Gómez Jiménez
2. INDICE
1. Conceptos Generales para Pruebas de Modelado Data Vault
2. Pruebas para un DWH usando un paradigma de modelado Data Vault
3. ETL
Extract, Transform and Load («extraer, transformar y cargar», frecuentemente
abreviado ETL) es el proceso que permite a las organizaciones mover datos desde
múltiples fuentes, transformarlos y cargarlos en otra base de datos, data mart o
data warehouse para analizar, o en otro sistema operacional para apoyar un
Proceso de Negocio.
Los procesos de extracción de información dependen de la base de datos en la que
se creará el Data Warehouse
Componentes de un proceso de ETL:
o Extracción
o Transformación
o Carga
4. Pruebas ETL’S
• Cifras Control (Origen vs Destino)
• Mapeo de datos
• Estructura (tipo de dato, longitudes, campos obligatorios)
• Consistencia de datos (Integridad)
• Reglas de negocio
Cifras
Control
Reglas de
Negocio
Detalle de la
Información
5. Modelo Data Vault
• Es una técnica de modelado de datos que permite explotar la información para
una toma de decisiones
• El modelo es construido para una extrema flexibilidad y escalabilidad, ejemplo,
desde cuando un cliente cambio de ciudad, domicilio, estado civil, etc.
• Consiste de tres tipos de entidades:
• Hub
• Satellite
• Links
6. Hub
• Se definen por una lista única de llaves de negocio (Business keys)
• Una llave de negocio, es usado por negocio para localizar e identificar
registros únicos en un compendio de información
• Ejemplos:
• Número de empleado
• Número de licencia de manejo
• Número de boleto
SEQUENCE
<BUSINESS KEY>
<LOAD DATE>
<RECORD SOURCE>
Hub_EmpID_SQN: numeric
(8)
EmpleadoID: integer (25)
Hub_EmpID_LDTS:
datetime (8)
Hub_EmpID_RSRC:
varchar(12)
Índice único
Hub_Empleado
SQN: Sequence number
LDTS: Load Date Time Stamp
RSRC: Record Source
7. Satellite
• Proporciona un contexto de las llaves de negocio (hubs)
• Descriptores
SEQUENCE
<BUSINESS KEY>
<LOAD DATE>
<RECORD SOURCE>
8. Links
• Asociaciones
• Es una intersección de llaves de negocio
• Se utilizan para conectar múltiple conjuntos de información
Link_Empleado_
Cuenta
Hub Empleado Hub Cuenta
SEQUENCE
<HUB KEY SQN 1>
<HUB KEY SQN 2>
<HUB KEY SQN N>
<LOAD DATE>
<RECORD SOURCE>
9. Pruebas para un DWH usando un
paradigma de modelado Data Vault
10. Ambientes
• Ambientes separados:
• Desarrollo
• Pruebas
• Producción
• Un proceso estandarizado de despliegue, es requerido
Desarrollo Pruebas Producción
11. Datos de Prueba
• Participación Equipo Análisis vs Pruebas
• Aquí es donde el entorno de prueba entra en juego:
• Proporciona una copia de los datos reales de producción con todas las
funcionalidades
• Se trata de una copia de toda la funcionalidad y los datos de producción tanto
como sea posible
• El ambiente de pruebas debería contener una copia completa de los datos que
están siendo usados actualmente por los usuarios de negocio
• No siempre es posible tener una copia completa de los datos en el ambiente de
pruebas debido a limitaciones de espacio
• Al menos el 50% de los datos productivos deben ser usados para pruebas
12. Capas
• Adquisición
• Extracción de información
• Capa cruda
• Contiene la información del sistema operacional, de acuerdo a las llaves
de negocio
• Capa Homologado
• Contiene la información de todos los sistemas centrales homologando los
conceptos de negocio y aplicando las reglas de negocio
14. Ciclos de Pruebas
Se determina el periodo a cargar para los ciclos de pruebas, la recomendación es
trabajar en conjunto con el equipo de análisis:
• Ciclo de Pruebas 1
• Cargas Iniciales
• Deltas
• Ciclo de Pruebas 2
• Cargas Iniciales
• Deltas
15. Casos de Prueba Adquisición
Source vs Adquisición
• Query Pivote
• Se extrae en base a un query pivote, contra el cual se hará join el
resto de las tablas
• Cifras control (conteo registros)
• Pueden contener o no una llave de negocio y agruparse o no por la
misma
• Longitud de datos
16. Casos de Prueba Crudo
Adquisición vs Hub
• Hub
• Cifras control (agrupado por llaves de negocio)
• Llaves de negocio únicas
• Atributos
• Longitud de datos
• Campos control (Fecha_Carga, Source, etc.)
• Registros activos (Estatus)
17. Casos de Prueba Crudo…
Adquisición vs Satellite
• Satellite
• Cifras control (agrupado por llaves de negocio) (Acq vs Sat y Hub vs Sat)
• Llaves de negocio únicas
• Atributos
• Longitud
• Tipo dato
• Campos control (Fecha_Carga, Source, etc.)
• Registros activos / inactivos (Estatus)
18. Casos de Prueba Crudo…
Hub vs Link
• Link
• Cifras control (conformación hubs)
• Campos control (Fecha_Carga, Source, etc.)
• Registros activos (Estatus)