[11.12.2009] Data Governance-Prozesse gelten im Finanz- und Versicherungssektor als geschäftskritisch, weil bei ungenügender Qualität von Daten enorme finanzielle und nicht-monetäre Risiken drohen. Banken und Versicherungen implementieren daher engmaschige Prüfnetze mit Data Quality (DQ)-Routinen - doch Entwicklung und Wartung dieses Instrumentariums verschlingt oft enorme Ressourcen. In einem Kundenprojekt entwickelte man daher auf Grundlage einer serviceorientierten Architektur (SOA) zentrale DQ-Services, die sowohl in den weltweit verteilten heterogenen Anwendungssystemen als auch von den klassischen ETL-Batch-Routinen genutzt werden. Datenqualität wird an einem zentralen Punkt fokussiert – bündelt damit die Kompetenzen und verringert die IT-Aufwände.
1. tiv hochwertigen Daten für das Risikomanagement zur
Sonderdruck aus Folge. Insbesondere im Hinblick auf die dritte Säule von
Solvency II – der Berichterstattungspflichten von Versi-
BI-Spektrum 5/09 für cherungsunternehmen - benötigt man konsistente Infor-
mationen für Öffentlichkeit und Aufsichtsbehörden, wo-
bei im Rahmen der implementierten Data-Governance
die Datenqualität für das interne und das externe Re-
porting sichergestellt werden muss. Im Falle mangelhaf-
Schwerpunkt
ter Datenqualität steigt das Risiko, Reputationsschäden
zu erleiden oder auch hohe Schadensersatzforderungen
leisten zu müssen.
Falk Lehmann ist Market Unit Manager
of BI & Reporting bei metafinanz Informations-
systeme GmbH, München Steigender Reporting-Aufwand
In der Praxis ist das Streben nach hoher Datenqualität
allerdings mit einigem Aufwand verbunden, wie das Pro-
jekt eines Datenproviders für das konzernweite Asset-
Datenqualitäts-Firewall Liability-Management eines großen Finanzdienstleisters
zeigte. Für das Controlling der Asset- und Investment-
Datenprüfung für management-Prozesse müssen tagtäglich eine große An-
zahl von Reports und Analysen erstellt werden, die eine
Konzerncontrolling essentielle Bedeutung für das Compliance- und Risiko-
management des Konzerns haben. Die Daten für dieses
Reporting werden von einer Vielzahl unterschiedlicher
Data Governance-Prozesse gelten im Finanz- und Ver- Liefersysteme aus dem gesamten weltweiten Konzern-
sicherungssektor als geschäftskritisch, weil bei unge- umfeld sowie externer Marktdatenprovider bereitgestellt.
nügender Qualität von Daten enorme finanzielle und Üblicherweise werden die Daten als CSV-Dateien oder
nicht-monetäre Risiken drohen. Banken und Versiche- proprietäre Datafeeds in das Datawarehouse geladen. Da
rungen implementieren daher engmaschige Prüfnetze die fachlichen Inhalte der Dateien sich stark unterschei-
mit Data Quality (DQ)-Routinen - doch Entwicklung den, muss für jedes Liefersystem eine eigene Datenquali-
und Wartung dieses Instrumentariums verschlingt oft täts-Prüfroutine innerhalb des ETL-Prozesses entwickelt
enorme Ressourcen. In einem Kundenprojekt entwickel- werden.
te man daher auf Grundlage einer serviceorientierten Neben der technischen Komplexität ergeben sich auch
Architektur (SOA) zentrale DQ-Services, die sowohl in fachlich diverse Herausforderungen: So bestehen bei-
den weltweit verteilten heterogenen Anwendungssyste- spielsweise bei manchen Reports Abhängigkeiten zwi-
men als auch von den klassischen ETL-Batch-Routinen schen unterschiedlichen Datenlieferungen - im Portfo-
genutzt werden. Datenqualität wird an einem zentralen liomanagement betrifft das etwa die Composites. Bei
Punkt fokussiert – bündelt damit die Kompetenzen und Composites handelt es sich um eine Bündelung mehre-
verringert die IT-Aufwände. rer Investmentportfolios gleichen Gestaltungstyps. Als
Datenlieferung kommen hier einerseits Marktdaten, wie
Aktien- oder Terminkurse herein, die den Wert eines ge-
Spätestens seit dem Zusammenbruch von Lehman Brot- samten Composites darstellen, gleichzeitig laufen auch
hers und der weltweiten Finanzkrise rückt das Thema Daten jedes einzelnen inhärenten Investmentfonds von
Data-Governance in das Blickfeld des Risikomanage- den Fondsgesellschaften ins zentrale Datawarehouse.
ments der Banken- und Versicherungswirtschaft. Zwar Am Ende muss die AUM-Summe („Asset-under-Ma-
sah sich der Bankensektor bereits mit Basel II einer nagement“: Wert der Aktie, des Fonds oder des Com-
Vielzahl von regulatorischen Anforderungen ausgesetzt, posites) der Einzelwerte identisch sein mit dem Ge-
doch werden die Bestimmungen auf breiter Front aus- samtwert des alle Investmentportfolios beinhaltenden
geweitet. Nun kommen auch auf die Versicherungswirt- Composites.
schaft unter dem Stichwort Solvency II neue Regeln für Um die Datenqualität sicherzustellen, kamen in der Ver-
das Risikomanagement zu, die bis 2012 umgesetzt sein gangenheit verschiedene Datenqualitäts-Prüfungen zum
müssen. Einsatz, die sich jedoch auf einzelne oder Gruppen von
Für Finanzdienstleister hat dies vor allem in Konzern- Lieferungen bezogen. Durch diese Heterogenität entste-
controlling und -bilanzierung signifikant höheren Auf- hen nicht nur zeitliche Verzögerungen beim Reporting,
wand für das Bereitstellen und Aufbereiten von qualita- sondern auch unnötige Mehrkosten.
BI-Spektrum 05-2009
18
2. Portal und Webservices mit zentralem alogverfahren, das über Anzeige und Editierfunktionen
ETL-Prozess verfügt. Zunächst findet im ersten Schritt eine Vorprü-
fung der gelieferten Daten statt. Diese basiert auf über
Aufgrund der vielschichtigen Anforderungen entschied Metadaten konfigurierbaren generischen Checks, so dass
man sich, die gesamten Qualitätsprüfungsprozesse zu für neue Liefersysteme keine Programmierung, sondern
zentralisieren. Die Idee dabei war, auf der bestehenden In- lediglich eine Konfiguration erforderlich ist. Implemen-
formatica Powercenter-Architektur mit ihren klassischen tiert sind diese generischen Checks mittels regulärer
ETL-Schnittstellen und den bereits implementierten DQ- Ausdrücke, welche durch die in Informatica vorhandene
Schwerpunkt
Checks aufzusetzen, gleichzeitig aber diese DQ-Funktio- Perl-kompatible Regular-Expression-Engine ausgeführt
nen durch Einsatz der Informatica Realtime-Option auch werden. Durch diese Metadaten-basierte Architektur ist
weiteren Applikationssystemen – wie JEE-Portalen (Java das System nicht auf ein bestimmtes CSV-Datenformat
Enterprise Edition) oder Rich-Client-Applikationen als festgelegt, sondern kann flexibel je nach fachlichem
zentrale DQ-Services für eine direkte Nutzung zur Verfü- Kontext konfiguriert werden.
gung zu stellen - als singulären Punkt der Datenprüfung Die zu prüfenden Daten könnten beispielsweise nach fol-
in einem mehrstufigen ETL-Prozess. gendem Muster aufgebaut sein: In der ersten Spalte der
Die neue Architektur bietet in Richtung Anwender/Da- Lieferung steht das Lieferdatum, in der zweiten der Fonds-
tenlieferant in der aktuellen Ausbaustufe zwei Schnitt- name, in der dritten die ISIN-Kennzahl (International Se-
stellen: Zum einen entwickelte man für den allgemeinen curity Identification Number; die ISIN dient der eindeu-
Zugang ein universelles User-Interface auf Basis eines tigen internationalen Identifikation von Wertpapieren), in
Java-Web-Clients, die auf den Webservice zugreift. Der der vierten der Anlagetyp – zum Beispiel EQ für Equity
Kunde meldet sich dabei über eine SSL-gesicherte Ver- oder FI für Fixed Income – und so weiter. Per Feldprüfung
bindung an, um seine Daten ins Datawarehouse zu laden. wird nun zunächst nach syntaktischen oder logischen Feh-
Am Client startet nun eine zweistufige Datenprüfung, die lern gesucht. Tauchen in einer oder mehreren Feldprüfun-
per Informatica-Webservice auf die ETL-Mechanismen gen Fehler auf, markiert das System die entsprechenden
zugreift. Es handelt sich hierbei um ein interaktives Di- Zeilen und Datenfelder und stellt die Daten mit Status-
Abb. 1: WSDL ist die XML-Beschreibung einer WebService-Schnittstelle. Die Grafik beschreibt, welche Daten(typen) in den Service hinein und
hinaus gehen – als eine Art Kontrakt zwischen Datenlieferant und Informatica-Service.
BI-Spektrum 05-2009
19
3. anzeigen an der Benutzerschnittstelle dar, wo sie der An- dern weltweit rund um die Uhr zur Verfügung und
wender umgehend interaktiv ausbessern kann. Die korri- folgt damit der Self-Service-Philosophie. Gleichzeitig
gierten Daten werden nun automatisch per Asynchronous kommt nun gewissermaßen das Verursacherprinzip
Javascript and XML (AJAX) für eine erneute Prüfung zum Tragen: Datenfehler müssen dort korrigiert wer-
an das Datawarehouse zurückgespielt und das Ergebnis den, wo sie entstehen, nämlich beim Lieferanten und in
der erneuten Prüfung wird dem Anwender ohne Page- dessen Quellsystemen. Die Lieferanten wiederum ha-
Refresh des User-Interfaces dargestellt. Sobald die Daten ben nun die Möglichkeit, Fehler bereits direkt während
alle konfigurierten generischen Prüfungen erfüllen, kann der Datenladung in Echtzeit angezeigt zu bekommen
Schwerpunkt
in einem zweiten Schritt eine in Informatica hinterlegte und interaktiv zu beheben.
Spezialprüfung durchgeführt werden. Hierbei ist es not- Auf der anderen Seite wird mit dieser Architektur auch
wendig, eine der Fachlichkeit der Lieferung entsprechen- ein Single Point of Responsibility geschaffen. Hatte
de ETL-Prüfroutine zu schreiben. Diese ETL-Prüfroutine man in der Vergangenheit verschiedene Datenprü-
wird als klassisches Mapping implementiert. Denkbar fungs-Firewalls entwickelt und damit das Rad immer
wäre beispielsweise die zu Beginn des Artikels skizzierte wieder neu erfunden, konzentriert sich diese Aufgabe
fachliche Anforderung nach Gleichheit von AUM-Summe und das damit verbundene fachliche Knowhow jetzt
des Composites und der AUM-Summen der im Composite direkt am Datawarehouse. Webentwickler an externen
enthaltenen Einzelportfolios. Hierzu würde im Mapping Standorten müssen sich nun nicht mehr mit speziellen
die AUM-Summe des Composites mit einer bereits früher fachlichen Fragen auseinandersetzen, sondern können
erfolgten und deshalb bereits im Datawarehouse vorhan- die vorhandenen SOA-Komponenten direkt in ihre
denen Lieferung der enthaltenen Fonds verglichen. Portale einbauen.
Als zweiten Zugang zur ETL-Logik können die Webser- Schließlich spricht auch noch ein ständiger Aktualisie-
vices über beliebige Programmiersprachen als Batch- rungsbedarf für eine konsequente Zentralisierung. So-
Schnittstelle genutzt werden. Auf der Seite der dezen- bald etwa Gesetzesänderungen vorliegen, müssen diese
tralen Liefersysteme eröffnet sich damit ein breites nur noch einmal im ETL-Tool umgesetzt werden, alle lie-
Spektrum für Individuallösungen, die alle stets mit der fernden Systeme in den externen Organisationen bleiben
zentralen Ladeinstanz von Informatica kommunizieren. davon zukünftig unberührt.
Nützlich ist das etwa für Lieferanten mit hoher Frequenz:
Statt die täglichen Fonds-Schlusskurse immer händisch
über das Portal zu laden, ist es möglich einen Adapter
schreiben, der die Zahlen automatisch liefert.
BI-SPEKTRUM ist eine Fachpublikation des Verlags:
SIGS DATACOM GmbH | Lindlaustraße 2c | 53842 Troisdorf
Tel.: +49 (0) 22 41.2341-100 | Fax: +49 (0) 22 41.2341-199
Fazit: Self-Service und Zentralisierung E-mail: info@sigs-datacom.de
der Kompetenzen www.bi-spektrum.de
Mit dieser zentralisierten Lösung profitiert der Kunde
in mehrfacher Hinsicht. Das Portal steht den Anwen-
BI-Spektrum 05-2009
20