SlideShare ist ein Scribd-Unternehmen logo
1 von 21
[object Object],[object Object],Durchgängige Business Intelligence durch eine praktikable DWH-Referenzarchitektur ,[object Object],Das modulare DWH Modell
Agenda ,[object Object],[object Object],[object Object],[object Object]
[object Object],Hintergrund
Aktuelle Anforderungen an Business Intelligence ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
„ Die Zwei“ Modellierungsansätze ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Vorteil Nachteil Kimbal ,[object Object],[object Object],[object Object],[object Object],Devlin Inmon ,[object Object],[object Object],[object Object],[object Object]
Typische Probleme und Lösungsansätze ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
[object Object],Praktikable DWH-Referenzarchitektur
Referenzarchitektur ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Hauptkomponenten der Architektur Security Informations-Quellen Quellen Informations-Management Data Warehouse BI- / EPM-Tools Informations-Zugriff ETL, Messaging und Metadaten ,[object Object],[object Object],[object Object],[object Object]
Details der Architektur Security Quellen Staging Layer Foundation Layer Access + Perfor-mance Layer unstrukturierte Daten Performance Management Apps Master-Daten Standard BI-Applikationen temporäre Daten zurück-gewiesene Daten prozess-neutrales Daten-model in 3NF eingebettete Data Marts MVs, AWs, CTAS Analyse Sandkasten BI-App-Daten ETL, Messaging und Metadaten BI Abstraction and Query Generation operative Daten Advanced Analysis Tools Alerts, Dashboards, Reports, Queries Web Services
Datenbewirtschaftung Security Quellen Staging Layer Foundation Layer Access + Perfor-mance Layer unstrukturierte Daten Performance Management Apps Master-Daten Standard BI-Applikationen temporäre Daten zurück-gewiesene Daten prozess-neutrales Daten-model in 3NF eingebettete Data Marts MVs, AWs, CTAS Analyse Sandkasten BI-App-Daten ETL, Messaging und Metadaten BI Abstraction and Query Generation operative Daten Advanced Analysis Tools Alerts, Dashboards, Reports, Queries Web Services
[object Object],Einbindung in die Gesamtarchitektur
Informationsbereitstellung ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Informationsbereitstellung Security Quellen Staging Layer Foundation Layer Access + Perfor-mance Layer unstrukturierte Daten Performance Management Apps Master Daten Standard BI-Applikationen temporäre Daten zurück-gewiesene Daten Prozess-neutrales Daten-model in 3NF eingebettete Data Marts MVs, AWs, CTAS Analyse Sandkasten BI-App-Daten ETL, Messaging und Metadaten BI Abstraction and Query Generation operative Daten Advanced Analysis Tools Alerts, Dashboards, Reports, Queries Web Services
Bidirektionale Integration ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Entwicklung und Einführung neuer Reportinganforderungen ,[object Object],[object Object],[object Object],[object Object],[object Object],PM, tCM, RM Ergebnis der  Iteration 1. Analyse 2. Design 3. Qualitätsdefinition 4. Lösungs- Implemen- tierung 5. Qualitätsmessung, Lieferung
Entwicklung und Einführung neuer Reportinganforderungen ,[object Object],[object Object],[object Object],[object Object],[object Object]
[object Object],Fazit
Fazit Anforderung Vereinfachung durch Referenzarchitektur (Near-)Real-Time DataWarehouse  durch die prinzipielle Architektur u. neue Technologien durchgängiges, also unternehmensweites BI durch schnelle Umsetzung von Anforderungen und Vermeidung von Insellösungen sowohl tiefere als auch breitere Analysemöglichkeiten durch Balance zwischen „Kimball“ und „Devlin/Inmon“-Ansätzen Verarbeitung von immer größeren Datenmengen durch Lifecycle Management und Redundanzfreiheit im 3NF Foundation Layer perfekte Datenqualität und ein echten „Single Point of Truth“ durch Integration aller Data-Marts  unstrukturierte Datenquellen durch die prinzipielle Architektur u. neue Technologien Compliance and Corporate Governance durch das übergreifende Security-Konzept und die Historisierungsmöglichkeiten im 3NF  Stets flexible Anpassungs-möglichkeiten und Zukunfts-sicherheit durch einfache Integration, Datenzugriff auf alle Layer und Anpassungsfähigkeit bzgl. Nutzung verschiedener Tools
Fragen und Antworten
Kontakt ,[object Object],[object Object],Quellen: „ Enabling Pervasive BI through a Practical Data Warehouse Reference Architecture“ An Oracle Whitepaper, February 2010 http://www.oracle.com/us/solutions/datawarehousing/058925.pdf ,[object Object],[object Object]

Weitere ähnliche Inhalte

Was ist angesagt?

Überblick Oracle Datenbank 12c
Überblick Oracle Datenbank 12cÜberblick Oracle Datenbank 12c
Überblick Oracle Datenbank 12cIleana Somesan
 
SplunkLive! Frankfurt 2016 - Helvetia Use Case
SplunkLive! Frankfurt 2016 - Helvetia Use CaseSplunkLive! Frankfurt 2016 - Helvetia Use Case
SplunkLive! Frankfurt 2016 - Helvetia Use CaseSplunk
 
Data Quadrant - Daten Management Methode
Data Quadrant - Daten Management MethodeData Quadrant - Daten Management Methode
Data Quadrant - Daten Management MethodeTorsten Glunde
 
Azure Data Factory – Data Management für die Cloud
Azure Data Factory – Data Management für die CloudAzure Data Factory – Data Management für die Cloud
Azure Data Factory – Data Management für die Cloudinovex GmbH
 
CDC und Data Vault für den Aufbau eines DWH in der Automobilindustrie
CDC und Data Vault für den Aufbau eines DWH in der AutomobilindustrieCDC und Data Vault für den Aufbau eines DWH in der Automobilindustrie
CDC und Data Vault für den Aufbau eines DWH in der AutomobilindustrieAndreas Buckenhofer
 
Data Virtualization - Supernova
Data Virtualization - SupernovaData Virtualization - Supernova
Data Virtualization - SupernovaTorsten Glunde
 
BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?
BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?
BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?Guido Schmutz
 
Realtime BigData Step by Step mit Lambda, Kafka, Storm und Hadoop
Realtime BigData Step by Step mit Lambda, Kafka, Storm und HadoopRealtime BigData Step by Step mit Lambda, Kafka, Storm und Hadoop
Realtime BigData Step by Step mit Lambda, Kafka, Storm und HadoopValentin Zacharias
 
Caching: In-Memory Column Store oder im BI Server
Caching: In-Memory Column Store oder im BI ServerCaching: In-Memory Column Store oder im BI Server
Caching: In-Memory Column Store oder im BI ServerAndreas Buckenhofer
 
OpenDMA - Daten Management Solution
OpenDMA  - Daten Management SolutionOpenDMA  - Daten Management Solution
OpenDMA - Daten Management SolutionTorsten Glunde
 
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human InferenceDataValueTalk
 
Überblick Oracle Datenbank Hochverfügbarkeit
Überblick Oracle Datenbank HochverfügbarkeitÜberblick Oracle Datenbank Hochverfügbarkeit
Überblick Oracle Datenbank HochverfügbarkeitIleana Somesan
 
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...Trivadis
 
Überblick Oracle GoldenGate
Überblick Oracle GoldenGateÜberblick Oracle GoldenGate
Überblick Oracle GoldenGateIleana Somesan
 
Data Vault DWH Automation
Data Vault DWH AutomationData Vault DWH Automation
Data Vault DWH AutomationTorsten Glunde
 
DWH-Modellierung mit Data Vault
DWH-Modellierung mit Data VaultDWH-Modellierung mit Data Vault
DWH-Modellierung mit Data VaultTrivadis
 
Replikation im heterogenen Umfeld mit Oracle GoldenGate
Replikation im heterogenen Umfeld mit Oracle GoldenGateReplikation im heterogenen Umfeld mit Oracle GoldenGate
Replikation im heterogenen Umfeld mit Oracle GoldenGateIleana Somesan
 
Oracle GoldenGate: Synchronisation zwischen Oracle und MySQL Datenbanken, Nov...
Oracle GoldenGate: Synchronisation zwischen Oracle und MySQL Datenbanken, Nov...Oracle GoldenGate: Synchronisation zwischen Oracle und MySQL Datenbanken, Nov...
Oracle GoldenGate: Synchronisation zwischen Oracle und MySQL Datenbanken, Nov...Ileana Somesan
 

Was ist angesagt? (20)

Überblick Oracle Datenbank 12c
Überblick Oracle Datenbank 12cÜberblick Oracle Datenbank 12c
Überblick Oracle Datenbank 12c
 
SplunkLive! Frankfurt 2016 - Helvetia Use Case
SplunkLive! Frankfurt 2016 - Helvetia Use CaseSplunkLive! Frankfurt 2016 - Helvetia Use Case
SplunkLive! Frankfurt 2016 - Helvetia Use Case
 
Data Quadrant - Daten Management Methode
Data Quadrant - Daten Management MethodeData Quadrant - Daten Management Methode
Data Quadrant - Daten Management Methode
 
Azure Data Factory – Data Management für die Cloud
Azure Data Factory – Data Management für die CloudAzure Data Factory – Data Management für die Cloud
Azure Data Factory – Data Management für die Cloud
 
CDC und Data Vault für den Aufbau eines DWH in der Automobilindustrie
CDC und Data Vault für den Aufbau eines DWH in der AutomobilindustrieCDC und Data Vault für den Aufbau eines DWH in der Automobilindustrie
CDC und Data Vault für den Aufbau eines DWH in der Automobilindustrie
 
Data Virtualization - Supernova
Data Virtualization - SupernovaData Virtualization - Supernova
Data Virtualization - Supernova
 
BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?
BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?
BPMN, BPEL oder vielleicht doch Java? Oder auch noch ESB?
 
Realtime BigData Step by Step mit Lambda, Kafka, Storm und Hadoop
Realtime BigData Step by Step mit Lambda, Kafka, Storm und HadoopRealtime BigData Step by Step mit Lambda, Kafka, Storm und Hadoop
Realtime BigData Step by Step mit Lambda, Kafka, Storm und Hadoop
 
Caching: In-Memory Column Store oder im BI Server
Caching: In-Memory Column Store oder im BI ServerCaching: In-Memory Column Store oder im BI Server
Caching: In-Memory Column Store oder im BI Server
 
OpenDMA - Daten Management Solution
OpenDMA  - Daten Management SolutionOpenDMA  - Daten Management Solution
OpenDMA - Daten Management Solution
 
Amazon Redshift
Amazon RedshiftAmazon Redshift
Amazon Redshift
 
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
 
Big Data Appliances
Big Data AppliancesBig Data Appliances
Big Data Appliances
 
Überblick Oracle Datenbank Hochverfügbarkeit
Überblick Oracle Datenbank HochverfügbarkeitÜberblick Oracle Datenbank Hochverfügbarkeit
Überblick Oracle Datenbank Hochverfügbarkeit
 
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
 
Überblick Oracle GoldenGate
Überblick Oracle GoldenGateÜberblick Oracle GoldenGate
Überblick Oracle GoldenGate
 
Data Vault DWH Automation
Data Vault DWH AutomationData Vault DWH Automation
Data Vault DWH Automation
 
DWH-Modellierung mit Data Vault
DWH-Modellierung mit Data VaultDWH-Modellierung mit Data Vault
DWH-Modellierung mit Data Vault
 
Replikation im heterogenen Umfeld mit Oracle GoldenGate
Replikation im heterogenen Umfeld mit Oracle GoldenGateReplikation im heterogenen Umfeld mit Oracle GoldenGate
Replikation im heterogenen Umfeld mit Oracle GoldenGate
 
Oracle GoldenGate: Synchronisation zwischen Oracle und MySQL Datenbanken, Nov...
Oracle GoldenGate: Synchronisation zwischen Oracle und MySQL Datenbanken, Nov...Oracle GoldenGate: Synchronisation zwischen Oracle und MySQL Datenbanken, Nov...
Oracle GoldenGate: Synchronisation zwischen Oracle und MySQL Datenbanken, Nov...
 

Andere mochten auch

Hadoop 2.0 - The Next Level
Hadoop 2.0 - The Next LevelHadoop 2.0 - The Next Level
Hadoop 2.0 - The Next LevelSascha Dittmann
 
Real-life Customer Cases using Data Vault and Data Warehouse Automation
Real-life Customer Cases using Data Vault and Data Warehouse AutomationReal-life Customer Cases using Data Vault and Data Warehouse Automation
Real-life Customer Cases using Data Vault and Data Warehouse AutomationPatrick Van Renterghem
 
Dv 20 sdlc_oss_automation
Dv 20 sdlc_oss_automationDv 20 sdlc_oss_automation
Dv 20 sdlc_oss_automationTorsten Glunde
 
Ist Ihr DWH noch zu retten? DWH-Sanierung als risikoarme Alternative zum komp...
Ist Ihr DWH noch zu retten? DWH-Sanierung als risikoarme Alternative zum komp...Ist Ihr DWH noch zu retten? DWH-Sanierung als risikoarme Alternative zum komp...
Ist Ihr DWH noch zu retten? DWH-Sanierung als risikoarme Alternative zum komp...PPI AG
 
Data Warehouse Design and Best Practices
Data Warehouse Design and Best PracticesData Warehouse Design and Best Practices
Data Warehouse Design and Best PracticesIvo Andreev
 
Wie baue ich ein DataWarehouse auf Basis Hadoop
Wie baue ich ein DataWarehouse auf Basis HadoopWie baue ich ein DataWarehouse auf Basis Hadoop
Wie baue ich ein DataWarehouse auf Basis HadoopGerd König
 

Andere mochten auch (6)

Hadoop 2.0 - The Next Level
Hadoop 2.0 - The Next LevelHadoop 2.0 - The Next Level
Hadoop 2.0 - The Next Level
 
Real-life Customer Cases using Data Vault and Data Warehouse Automation
Real-life Customer Cases using Data Vault and Data Warehouse AutomationReal-life Customer Cases using Data Vault and Data Warehouse Automation
Real-life Customer Cases using Data Vault and Data Warehouse Automation
 
Dv 20 sdlc_oss_automation
Dv 20 sdlc_oss_automationDv 20 sdlc_oss_automation
Dv 20 sdlc_oss_automation
 
Ist Ihr DWH noch zu retten? DWH-Sanierung als risikoarme Alternative zum komp...
Ist Ihr DWH noch zu retten? DWH-Sanierung als risikoarme Alternative zum komp...Ist Ihr DWH noch zu retten? DWH-Sanierung als risikoarme Alternative zum komp...
Ist Ihr DWH noch zu retten? DWH-Sanierung als risikoarme Alternative zum komp...
 
Data Warehouse Design and Best Practices
Data Warehouse Design and Best PracticesData Warehouse Design and Best Practices
Data Warehouse Design and Best Practices
 
Wie baue ich ein DataWarehouse auf Basis Hadoop
Wie baue ich ein DataWarehouse auf Basis HadoopWie baue ich ein DataWarehouse auf Basis Hadoop
Wie baue ich ein DataWarehouse auf Basis Hadoop
 

Ähnlich wie Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges

Event-Streaming in Echtzeit: Der MongoDB-Kafka-Connector in Action!
Event-Streaming in Echtzeit: Der MongoDB-Kafka-Connector in Action!Event-Streaming in Echtzeit: Der MongoDB-Kafka-Connector in Action!
Event-Streaming in Echtzeit: Der MongoDB-Kafka-Connector in Action!confluent
 
Cloud Computing für die Verarbeitung von Metadaten
Cloud Computing für die Verarbeitung von MetadatenCloud Computing für die Verarbeitung von Metadaten
Cloud Computing für die Verarbeitung von MetadatenMagnus Pfeffer
 
Agile Methoden als Erfolgsfaktor für BI und Big Data Projekte
Agile Methoden als Erfolgsfaktor für BI und Big Data ProjekteAgile Methoden als Erfolgsfaktor für BI und Big Data Projekte
Agile Methoden als Erfolgsfaktor für BI und Big Data Projekteinovex GmbH
 
Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...
Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...
Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...Precisely
 
BizDataX Testdatenmanagement Konzepte
BizDataX Testdatenmanagement KonzepteBizDataX Testdatenmanagement Konzepte
BizDataX Testdatenmanagement KonzepteDragan Kinkela
 
SAP_Basis_Klassisch.pdf
SAP_Basis_Klassisch.pdfSAP_Basis_Klassisch.pdf
SAP_Basis_Klassisch.pdfCazLP
 
Datenqualitätsmanagement heute und morgen
Datenqualitätsmanagement heute und morgenDatenqualitätsmanagement heute und morgen
Datenqualitätsmanagement heute und morgenVizlib Ltd.
 
Agile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
Agile Methoden als Erfolgsfaktor in BI- und Big Data ProjektenAgile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
Agile Methoden als Erfolgsfaktor in BI- und Big Data Projekteninovex GmbH
 
Datenanalyse in der Praxis
Datenanalyse in der PraxisDatenanalyse in der Praxis
Datenanalyse in der PraxisYvette Teiken
 
Big Data Konnektivität
Big Data KonnektivitätBig Data Konnektivität
Big Data KonnektivitätTrivadis
 
Geänderte Anforderungen an eine Data-Warehouse-Landschaft
Geänderte Anforderungen an eine Data-Warehouse-LandschaftGeänderte Anforderungen an eine Data-Warehouse-Landschaft
Geänderte Anforderungen an eine Data-Warehouse-LandschaftISR Information Products AG
 
Datenqualitätsanalyse mit modernen Business-Intelligence-Werkzeugen
Datenqualitätsanalyse mit modernen Business-Intelligence-WerkzeugenDatenqualitätsanalyse mit modernen Business-Intelligence-Werkzeugen
Datenqualitätsanalyse mit modernen Business-Intelligence-WerkzeugenBusiness Intelligence Research
 
Performanceaspekte im Oracle DWH
Performanceaspekte im Oracle DWHPerformanceaspekte im Oracle DWH
Performanceaspekte im Oracle DWHTrivadis
 
ÖBB - Bahnstrombedarfsprognose- mit Advanced Analytics
ÖBB - Bahnstrombedarfsprognose- mit Advanced Analytics ÖBB - Bahnstrombedarfsprognose- mit Advanced Analytics
ÖBB - Bahnstrombedarfsprognose- mit Advanced Analytics Microsoft Österreich
 
BATbern52 SBB zu Data Products und Knacknüsse
BATbern52 SBB zu Data Products und KnacknüsseBATbern52 SBB zu Data Products und Knacknüsse
BATbern52 SBB zu Data Products und KnacknüsseBATbern
 

Ähnlich wie Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges (20)

2010 09 29 13-30 michael gniffke
2010 09 29 13-30 michael gniffke2010 09 29 13-30 michael gniffke
2010 09 29 13-30 michael gniffke
 
Event-Streaming in Echtzeit: Der MongoDB-Kafka-Connector in Action!
Event-Streaming in Echtzeit: Der MongoDB-Kafka-Connector in Action!Event-Streaming in Echtzeit: Der MongoDB-Kafka-Connector in Action!
Event-Streaming in Echtzeit: Der MongoDB-Kafka-Connector in Action!
 
Cloud Computing für die Verarbeitung von Metadaten
Cloud Computing für die Verarbeitung von MetadatenCloud Computing für die Verarbeitung von Metadaten
Cloud Computing für die Verarbeitung von Metadaten
 
Agile Methoden als Erfolgsfaktor für BI und Big Data Projekte
Agile Methoden als Erfolgsfaktor für BI und Big Data ProjekteAgile Methoden als Erfolgsfaktor für BI und Big Data Projekte
Agile Methoden als Erfolgsfaktor für BI und Big Data Projekte
 
Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...
Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...
Datenintegrität für moderne Cloud Data Warehouse (MDWH) und Analytics Archite...
 
BizDataX Testdatenmanagement Konzepte
BizDataX Testdatenmanagement KonzepteBizDataX Testdatenmanagement Konzepte
BizDataX Testdatenmanagement Konzepte
 
SAP_Basis_Klassisch.pdf
SAP_Basis_Klassisch.pdfSAP_Basis_Klassisch.pdf
SAP_Basis_Klassisch.pdf
 
Big Data und Business Intelligence
Big Data und Business IntelligenceBig Data und Business Intelligence
Big Data und Business Intelligence
 
2010 09 30 11-30 thomas marx
2010 09 30 11-30 thomas marx2010 09 30 11-30 thomas marx
2010 09 30 11-30 thomas marx
 
Softwaretests in der Domäne modellgetriebener BI-Systeme
Softwaretests in der Domäne modellgetriebener BI-SystemeSoftwaretests in der Domäne modellgetriebener BI-Systeme
Softwaretests in der Domäne modellgetriebener BI-Systeme
 
Datenqualitätsmanagement heute und morgen
Datenqualitätsmanagement heute und morgenDatenqualitätsmanagement heute und morgen
Datenqualitätsmanagement heute und morgen
 
Agile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
Agile Methoden als Erfolgsfaktor in BI- und Big Data ProjektenAgile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
Agile Methoden als Erfolgsfaktor in BI- und Big Data Projekten
 
Datenanalyse in der Praxis
Datenanalyse in der PraxisDatenanalyse in der Praxis
Datenanalyse in der Praxis
 
Big Data Konnektivität
Big Data KonnektivitätBig Data Konnektivität
Big Data Konnektivität
 
Geänderte Anforderungen an eine Data-Warehouse-Landschaft
Geänderte Anforderungen an eine Data-Warehouse-LandschaftGeänderte Anforderungen an eine Data-Warehouse-Landschaft
Geänderte Anforderungen an eine Data-Warehouse-Landschaft
 
Datenqualitätsanalyse mit modernen Business-Intelligence-Werkzeugen
Datenqualitätsanalyse mit modernen Business-Intelligence-WerkzeugenDatenqualitätsanalyse mit modernen Business-Intelligence-Werkzeugen
Datenqualitätsanalyse mit modernen Business-Intelligence-Werkzeugen
 
Performanceaspekte im Oracle DWH
Performanceaspekte im Oracle DWHPerformanceaspekte im Oracle DWH
Performanceaspekte im Oracle DWH
 
ÖBB - Bahnstrombedarfsprognose- mit Advanced Analytics
ÖBB - Bahnstrombedarfsprognose- mit Advanced Analytics ÖBB - Bahnstrombedarfsprognose- mit Advanced Analytics
ÖBB - Bahnstrombedarfsprognose- mit Advanced Analytics
 
Datenmanagement 2.0: Active Datamanagement (ADM)
Datenmanagement 2.0: Active Datamanagement (ADM)Datenmanagement 2.0: Active Datamanagement (ADM)
Datenmanagement 2.0: Active Datamanagement (ADM)
 
BATbern52 SBB zu Data Products und Knacknüsse
BATbern52 SBB zu Data Products und KnacknüsseBATbern52 SBB zu Data Products und Knacknüsse
BATbern52 SBB zu Data Products und Knacknüsse
 

Mehr von OPITZ CONSULTING Deutschland

Architecture Room Stuttgart - "Cloud-native ist nur ein Teil des Spiels!"
Architecture Room Stuttgart - "Cloud-native ist nur ein Teil des Spiels!"Architecture Room Stuttgart - "Cloud-native ist nur ein Teil des Spiels!"
Architecture Room Stuttgart - "Cloud-native ist nur ein Teil des Spiels!"OPITZ CONSULTING Deutschland
 
OC|Webcast: Oracle Lizenzierung - Die größten Fallen in der Praxis
OC|Webcast: Oracle Lizenzierung - Die größten Fallen in der PraxisOC|Webcast: Oracle Lizenzierung - Die größten Fallen in der Praxis
OC|Webcast: Oracle Lizenzierung - Die größten Fallen in der PraxisOPITZ CONSULTING Deutschland
 
OC|Webcast: Oracle Lizenzierung - Virtualisierung und Cloud
OC|Webcast: Oracle Lizenzierung - Virtualisierung und CloudOC|Webcast: Oracle Lizenzierung - Virtualisierung und Cloud
OC|Webcast: Oracle Lizenzierung - Virtualisierung und CloudOPITZ CONSULTING Deutschland
 
OC|Weekly Talk: Inspect’n’Adapt – Make Change come true!
OC|Weekly Talk: Inspect’n’Adapt – Make Change come true!OC|Weekly Talk: Inspect’n’Adapt – Make Change come true!
OC|Weekly Talk: Inspect’n’Adapt – Make Change come true!OPITZ CONSULTING Deutschland
 
OC|Webcast: Schnell und clever in die AWS Cloud – Migrationsszenarien und Han...
OC|Webcast: Schnell und clever in die AWS Cloud – Migrationsszenarien und Han...OC|Webcast: Schnell und clever in die AWS Cloud – Migrationsszenarien und Han...
OC|Webcast: Schnell und clever in die AWS Cloud – Migrationsszenarien und Han...OPITZ CONSULTING Deutschland
 
OC|Weekly Talk: "Das müsste man mal digitalisieren" - Mit Low-Code schnell zu...
OC|Weekly Talk: "Das müsste man mal digitalisieren" - Mit Low-Code schnell zu...OC|Weekly Talk: "Das müsste man mal digitalisieren" - Mit Low-Code schnell zu...
OC|Weekly Talk: "Das müsste man mal digitalisieren" - Mit Low-Code schnell zu...OPITZ CONSULTING Deutschland
 
OC|Weekly Talk: Service Management – Was hat sich durch Corona geändert?
OC|Weekly Talk: Service Management – Was hat sich durch Corona geändert?OC|Weekly Talk: Service Management – Was hat sich durch Corona geändert?
OC|Weekly Talk: Service Management – Was hat sich durch Corona geändert?OPITZ CONSULTING Deutschland
 
OC|Weekly Talk - Digitales Coaching & Smart Sparring
OC|Weekly Talk - Digitales Coaching & Smart Sparring OC|Weekly Talk - Digitales Coaching & Smart Sparring
OC|Weekly Talk - Digitales Coaching & Smart Sparring OPITZ CONSULTING Deutschland
 
Effiziente Betriebsoptimierung durch Cloud Nutzung
Effiziente Betriebsoptimierung durch Cloud NutzungEffiziente Betriebsoptimierung durch Cloud Nutzung
Effiziente Betriebsoptimierung durch Cloud NutzungOPITZ CONSULTING Deutschland
 

Mehr von OPITZ CONSULTING Deutschland (20)

OC|Webcast: Grundlagen der Oracle Lizenzierung
OC|Webcast: Grundlagen der Oracle LizenzierungOC|Webcast: Grundlagen der Oracle Lizenzierung
OC|Webcast: Grundlagen der Oracle Lizenzierung
 
OC|Webcast "Java heute" vom 28.09.2021
OC|Webcast "Java heute" vom 28.09.2021OC|Webcast "Java heute" vom 28.09.2021
OC|Webcast "Java heute" vom 28.09.2021
 
OC|Webcast "Java heute" vom 24.08.2021
OC|Webcast "Java heute" vom 24.08.2021OC|Webcast "Java heute" vom 24.08.2021
OC|Webcast "Java heute" vom 24.08.2021
 
OC|Webcast "Daten wirklich nutzen"
OC|Webcast "Daten wirklich nutzen"OC|Webcast "Daten wirklich nutzen"
OC|Webcast "Daten wirklich nutzen"
 
Architecture Room Stuttgart - "Cloud-native ist nur ein Teil des Spiels!"
Architecture Room Stuttgart - "Cloud-native ist nur ein Teil des Spiels!"Architecture Room Stuttgart - "Cloud-native ist nur ein Teil des Spiels!"
Architecture Room Stuttgart - "Cloud-native ist nur ein Teil des Spiels!"
 
OC|Webcast "Willkommen in der Cloud!"
OC|Webcast "Willkommen in der Cloud!"OC|Webcast "Willkommen in der Cloud!"
OC|Webcast "Willkommen in der Cloud!"
 
OC|Webcast "Die neue Welt der Virtualisierung"
OC|Webcast "Die neue Welt der Virtualisierung"OC|Webcast "Die neue Welt der Virtualisierung"
OC|Webcast "Die neue Welt der Virtualisierung"
 
10 Thesen zur professionellen Softwareentwicklung
10 Thesen zur professionellen Softwareentwicklung10 Thesen zur professionellen Softwareentwicklung
10 Thesen zur professionellen Softwareentwicklung
 
OC|Webcast: Oracle Lizenzierung - Lizenznews 2021
OC|Webcast: Oracle Lizenzierung - Lizenznews 2021OC|Webcast: Oracle Lizenzierung - Lizenznews 2021
OC|Webcast: Oracle Lizenzierung - Lizenznews 2021
 
OC|Webcast: Oracle Lizenzierung - Die größten Fallen in der Praxis
OC|Webcast: Oracle Lizenzierung - Die größten Fallen in der PraxisOC|Webcast: Oracle Lizenzierung - Die größten Fallen in der Praxis
OC|Webcast: Oracle Lizenzierung - Die größten Fallen in der Praxis
 
OC|Webcast: Oracle Lizenzierung - Virtualisierung und Cloud
OC|Webcast: Oracle Lizenzierung - Virtualisierung und CloudOC|Webcast: Oracle Lizenzierung - Virtualisierung und Cloud
OC|Webcast: Oracle Lizenzierung - Virtualisierung und Cloud
 
OC|Webcast: Grundlagen der Oracle-Lizenzierung
OC|Webcast: Grundlagen der Oracle-LizenzierungOC|Webcast: Grundlagen der Oracle-Lizenzierung
OC|Webcast: Grundlagen der Oracle-Lizenzierung
 
OC|Weekly Talk: Inspect’n’Adapt – Make Change come true!
OC|Weekly Talk: Inspect’n’Adapt – Make Change come true!OC|Weekly Talk: Inspect’n’Adapt – Make Change come true!
OC|Weekly Talk: Inspect’n’Adapt – Make Change come true!
 
OC|Webcast: Schnell und clever in die AWS Cloud – Migrationsszenarien und Han...
OC|Webcast: Schnell und clever in die AWS Cloud – Migrationsszenarien und Han...OC|Webcast: Schnell und clever in die AWS Cloud – Migrationsszenarien und Han...
OC|Webcast: Schnell und clever in die AWS Cloud – Migrationsszenarien und Han...
 
OC|Weekly Talk The Power of DevOps…
OC|Weekly Talk  The Power of DevOps…OC|Weekly Talk  The Power of DevOps…
OC|Weekly Talk The Power of DevOps…
 
OC|Weekly Talk: "Das müsste man mal digitalisieren" - Mit Low-Code schnell zu...
OC|Weekly Talk: "Das müsste man mal digitalisieren" - Mit Low-Code schnell zu...OC|Weekly Talk: "Das müsste man mal digitalisieren" - Mit Low-Code schnell zu...
OC|Weekly Talk: "Das müsste man mal digitalisieren" - Mit Low-Code schnell zu...
 
OC|Weekly Talk: Service Management – Was hat sich durch Corona geändert?
OC|Weekly Talk: Service Management – Was hat sich durch Corona geändert?OC|Weekly Talk: Service Management – Was hat sich durch Corona geändert?
OC|Weekly Talk: Service Management – Was hat sich durch Corona geändert?
 
OC|Weekly Talk - Digitales Coaching & Smart Sparring
OC|Weekly Talk - Digitales Coaching & Smart Sparring OC|Weekly Talk - Digitales Coaching & Smart Sparring
OC|Weekly Talk - Digitales Coaching & Smart Sparring
 
OC|Weekly Talk - Beratung remote
OC|Weekly Talk - Beratung remoteOC|Weekly Talk - Beratung remote
OC|Weekly Talk - Beratung remote
 
Effiziente Betriebsoptimierung durch Cloud Nutzung
Effiziente Betriebsoptimierung durch Cloud NutzungEffiziente Betriebsoptimierung durch Cloud Nutzung
Effiziente Betriebsoptimierung durch Cloud Nutzung
 

Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10. Details der Architektur Security Quellen Staging Layer Foundation Layer Access + Perfor-mance Layer unstrukturierte Daten Performance Management Apps Master-Daten Standard BI-Applikationen temporäre Daten zurück-gewiesene Daten prozess-neutrales Daten-model in 3NF eingebettete Data Marts MVs, AWs, CTAS Analyse Sandkasten BI-App-Daten ETL, Messaging und Metadaten BI Abstraction and Query Generation operative Daten Advanced Analysis Tools Alerts, Dashboards, Reports, Queries Web Services
  • 11. Datenbewirtschaftung Security Quellen Staging Layer Foundation Layer Access + Perfor-mance Layer unstrukturierte Daten Performance Management Apps Master-Daten Standard BI-Applikationen temporäre Daten zurück-gewiesene Daten prozess-neutrales Daten-model in 3NF eingebettete Data Marts MVs, AWs, CTAS Analyse Sandkasten BI-App-Daten ETL, Messaging und Metadaten BI Abstraction and Query Generation operative Daten Advanced Analysis Tools Alerts, Dashboards, Reports, Queries Web Services
  • 12.
  • 13.
  • 14. Informationsbereitstellung Security Quellen Staging Layer Foundation Layer Access + Perfor-mance Layer unstrukturierte Daten Performance Management Apps Master Daten Standard BI-Applikationen temporäre Daten zurück-gewiesene Daten Prozess-neutrales Daten-model in 3NF eingebettete Data Marts MVs, AWs, CTAS Analyse Sandkasten BI-App-Daten ETL, Messaging und Metadaten BI Abstraction and Query Generation operative Daten Advanced Analysis Tools Alerts, Dashboards, Reports, Queries Web Services
  • 15.
  • 16.
  • 17.
  • 18.
  • 19. Fazit Anforderung Vereinfachung durch Referenzarchitektur (Near-)Real-Time DataWarehouse durch die prinzipielle Architektur u. neue Technologien durchgängiges, also unternehmensweites BI durch schnelle Umsetzung von Anforderungen und Vermeidung von Insellösungen sowohl tiefere als auch breitere Analysemöglichkeiten durch Balance zwischen „Kimball“ und „Devlin/Inmon“-Ansätzen Verarbeitung von immer größeren Datenmengen durch Lifecycle Management und Redundanzfreiheit im 3NF Foundation Layer perfekte Datenqualität und ein echten „Single Point of Truth“ durch Integration aller Data-Marts unstrukturierte Datenquellen durch die prinzipielle Architektur u. neue Technologien Compliance and Corporate Governance durch das übergreifende Security-Konzept und die Historisierungsmöglichkeiten im 3NF Stets flexible Anpassungs-möglichkeiten und Zukunfts-sicherheit durch einfache Integration, Datenzugriff auf alle Layer und Anpassungsfähigkeit bzgl. Nutzung verschiedener Tools
  • 21.

Hinweis der Redaktion

  1. Die Bedürfnisse des Business an Reporting/BI sind in den letzten Jahren signifikant größer geworden Auch die DWH Tools und Technologien haben sich deutlich weiterentwickelt Die Erwartungen an einzelne Bereiche ist großer geworden, z.B. bessere Analysemöglichkeiten, höhere Detailtiefe, bessere Datenqualität, kürzere Ladezyklen Es gibt aber auch ganz neue Erwartungen, z.B. bzgl. Compliance-Anforderungen, Unstrukturierte Datenquellen, SOA auch für externe Stakeholder Hinweise: Größere Datenmengen -> Data Lifecycle Management Single Point of Truth -> DWH haben das eigentlich immer als Ziel gehabt, aber durch unterschiedliche Insellösungen und nicht durchgägniges DWH entstanden oft widersprüchliche mehrfache „Points-of-Truth“ Compliance -> Security Flexible Anpassungsmöglichkeiten -> Informationen müssen langfristig verwaltet und angereichert werden können, ohne dass Business-Änderungen nur per Re-Design des DWH klappen .. -> Die Architektur muss Zukunftssicher sein
  2. Kurzer Anriss dieser beiden Grundansätze als Vorbereitung eines Fazits des Vortrags: die Balance zwischen beiden Ansätzen ist wichtig Anmerkungen: Oracle unterstützt technologisch beides Des einen Vorteil sind des anderen Nachteil und umgekehrt
  3. 1: DWH Projekte scheitern häufig, da die Komplexität unterschätzt wird, keine Experten zu rate gezogen werden, Ergebnisse zu spät kommen, und dann der Nutzen auch noch den Stakeholdern nicht wirklich klar gemacht werden kann, bzw. die Anzahl an Nutzern im Verhältnis zum „großen“ Projekt sehr klein ist 2: Slogan „Never touch a running system“ insbesondere anzuwenden auf „never change a loading ETL program“ Fehlendes Metadatenmanagement führt oft zu dem beschriebenen Lösungen: Alles richtig und (z.B. von OC) herrvoragend angewendet…. Und um das Ganze zu ermöglichen, die darauf abgestimmte „PRAKTIKABLE“ Referenzarchitektur
  4. Kurzer Abriss, was überhaupt eine „Referenz“-Architektur darstellen soll. Durch aktuelle Technologien, wie z.B. den OBI-Server als Abstraction Layer, besser umsetzbar, also praktikabel
  5. erstes Übersichtsdiagram als Einstieg. Simple Aufteilung in Quelle -> Management -> Access, begleitet von ETL und umrandet von Security Security ist „allgegenwärtig“, deshalb außen herum ETL, Messaing und Metadaten auf dieser Folie erläutern (nicht auf der nächsten) Anknüpfen zu Life-Cicle-Management und durchgängiges Metadatenmanagement, was in folgenden Vorträgen des Tages thematisisert wird!
  6. Diese Folie baut sich Stück für Stück auf, alle einzelnen Komponenten werden erläutert. Dies ist die zentrale Grafik und diese Folie benötigt sicher 5 bis 10 Minuten! (Einblendeffekte müssen noch gemacht werden!!!) Quellen: Bei Quellen kommen natürlich auch externe Daten vor, hier sind nur diese vier Quellen exemplarisch angegeben Real-Time Provisioning ist via Messaging z.B. implentierbar, oder change-tracking mit log-mining etc. Alle möglichen „Spielarten“ sind hier vorstellbar, beim befüllen der Staging Area Stage: Im Stage kann/sollte auch abgekoppelt werden, wann Daten von der Quelle ins Stage gelangen, und wann sie weiter ins Foundation Layer transportiert werden. So kann z.B. der Stage auch als zwischenlager/Puffer dienen Selbstberständlich findet DQM im Stage statt, zurückgewiesene Daten bleiben dort „hängen“ Foundation: Auch Core DWH gennant. Gilt als HERZ des DWH. Auch Atomic Layer genannt, weil hier die Daten auf tiefster Detailebene liegen (Devlin/Inmon). Historisierung kann hier stattfinden, da dies im 3NF deutlich einfacher geht, als im Dimensionsmodell WICHTIG: Prozessneutrale Speicherung, also rein auf Datenmanagement ausgelegt und nicht auf das Business. Hier können vorgefertigte Enterprise Modelle zum einsatz kommen, oder man fängt tatsächlich mit einem weissen Blatt Papier und den Ausdrucken der Datenmodelle der Quellen an und modelliert „nach Lehrbuch“ das 3NF Modell. Access+Performance Dies ist der Kimbal Teil, hier findet man nun Cubes/Dimensionen und alles so aufbereitet, dass es für Navigation und Abfrage optimiert ist Analysis Sandpit evtl. wenn zeit ist kurz erklären. Evtl. mach ich dazu noch eine optionale Folie, ansonsten auf der Tonspur erklären Hier sollten z.B. auch Data Marts eingefangen und eingebettet werden, um Insellösungen zu vermeiden. Jedes Data Mart kann hier auf die entsprechenden Zielbedürfnisse hin modelliert sein, greift aber immer über das Foundation Layer zu, nur so bekommt man einen „wirklichen“ Single-Point-of-Truth BI Abstraction Layer: Beispiel OBI Server, der ist genau soetwas! Vorteile erläutern… Die vier Kästen am Rand sind nur Beispiele, zukünftige andere Anwenden werden genau dort in der Architektur platziert. Wichtig ist stets: Der Zugriff führt wenn eben möglich über das grüne Kästchen, sofern aber das nicht möglich ist, kann auf alle anderen, weiter „entfernten“ Layer durchgegriffen werden. Das wird dadurch symbolisiert, dass der grüne Balken nicht bis ganz oben und nicht bis ganz unten geht! MVs = Materialized Views AWs = Analytical Workspaces CTAS = Create Table As Select
  7. Standard BI Applikationen (COTS = Commercial out the shelf) können Daten direkt an das Access Layer liefern, z.B. über vordefinierte, vorgegebenen ETL Strecken die solche Tools mitbringen. Oder man geht den „normalen“ Weg über Staging etc. man kann auch beides für jeweilige Teile machen, dann muss aber im Access-Layer sichergestellt werden, dass für diese Daten dort ein „Single-Point-of-Truth“ hergestellt wird
  8. Jegliche Daten innerhalb der verschiedenen Layer können von jedem BI Tool zugegriffen werden, genauso wie auf ETL Metadaten oder Data Quality Metadaten. Mit diesem allgemeinen Zugriff hat man stets die Möglichkeit eine weitreichende Analyse / Data Mining zu betreiben. Kernpunkt: ist etwas (bislang) nicht im Access and Performance Layer vorhanden, so greife ich auf das Foundation Layer zu. Ist es auch dort nicht vorhanden, dann evtl. im Staging? Letztendlich holt man, wenn nichts anderes geht, die Daten aus dem Quellsystem selber. Der letzte Punkt ist wichtig: eine möglichst offenes Datenzugriffskonzept mach das DWH erst als wirklich zentrales und durchgängig verwendbaren „Single-point-of-Truth“ Man kann schnell im Berichtswesen auf aktuelle Bedürfnisse reagieren, ohne dass die Daten sofort komplett im DWH liegen müssen (was ja nach wie vor nicht ganz so schnell geht) Wird ein solcher Report langfristig genutzt, werden alle benötigten Daten (siehe auch weiter unten) Stück für Stück in die diversen Layer integriert.
  9. BI-Tools: z.B. für Planung und/oder Hochrechnung Anriss des Themas „EPM“ und „Deming Kreis“ Für EPM Szenarien ist diese Architektur somit auch sehr gut. Das Thema geht aber weit über diesen Vortrag hinaus Im Sandpit können z.B. neue Strukturen evaluiert werden. Wenn die Ergebnisse entsprechend den Erwartungen sind, können dann solche neuen Strukturen umgesetzt werden und somit zurück in das Business fließen (Beispiel: Strukturkennzahlen) Daten, die zurückfließen sollen, gehen immer diesen Kreis. NIEMALS fließen Daten den umgekehrten Weg, also niemelas vom Tool in das Access Layer und dann weiter in das Foundation Layer, usw.!
  10. Ein durchgängiges DWH muss zum Ziel haben, dass ALLE Reortinganforderungen über das DWH agewickelt werden. Mit dem beschriebenen Vorgehen und der Referenzarchitektur funktioniert das, da es (theoretisch) keine Einschränkungen bzgl. Machbarkeit gibt. Ein Report wird im Zweifel sozusagen zunächst komplett am Data Warehouse vorbei entwickelt, ist aber trotzdem Teil der Architektur und kann anschließend in diese Integriert werden. Mehrere Vorteile: Man kann viel schneller auf Business Änderungen Reagieren, ohne dass dabei wieder Insellösungen entstehen (also Reporting am Warehouse vorbei) Man kann die Usage der neuen Reporte tracken und daraus eine Roadmap machen, was in Zukunft in die Warehouse Layer integriert werden soll (so kann man auch die ursprünglich mal vom Fach als extrem wichtig deklarierten Berichte, die aber dann doch nur einmal genutzten wurden, dem echten DWH heraushalten) Ein BICC kann als zentrale BI Stelle im Unternehmen für Reporting etabliert werden, die über die Architektur die Möglichkeit haben, wirklich alle Anforderungen zu erfüllen (theoretisch)
  11. Ein durchgängiges DWH muss zum Ziel haben, dass ALLE Reortinganforderungen über das DWH agewickelt werden. Mit dem beschriebenen Vorgehen und der Referenzarchitektur funktioniert das, da es (theoretisch) keine Einschränkungen bzgl. Machbarkeit gibt. Ein Report wird im Zweifel sozusagen zunächst komplett am Data Warehouse vorbei entwickelt, ist aber trotzdem Teil der Architektur und kann anschließend in diese Integriert werden. Mehrere Vorteile: Man kann viel schneller auf Business Änderungen Reagieren, ohne dass dabei wieder Insellösungen entstehen (also Reporting am Warehouse vorbei) Man kann die Usage der neuen Reporte tracken und daraus eine Roadmap machen, was in Zukunft in die Warehouse Layer integriert werden soll (so kann man auch die ursprünglich mal vom Fach als extrem wichtig deklarierten Berichte, die aber dann doch nur einmal genutzten wurden, dem echten DWH heraushalten) Ein BICC kann als zentrale BI Stelle im Unternehmen für Reporting etabliert werden, die über die Architektur die Möglichkeit haben, wirklich alle Anforderungen zu erfüllen (theoretisch)