Datenqualität im Bankenbereich
Factsheet inklusive Anwendungsfall: Interne Kontrollsysteme zur Sicherung der Qualität melderelevanter Daten
Um der Feststellung eines Missstandes seitens interner oder externer Prüfer vorzugreifen, ist es sinnvoll, zunächst die wirklich kritischen Daten zu identifizieren
(18.07.12) - In vielen Finanzinstituten eilt den Daten bestimmter Prozesse und Systeme ein schlechter Ruf voraus. Dieser basiert unter anderem auf anekdotischen Berichten zu einzelnen Datensätzen, spezifischen bekannten Fehlerkonstellationen sowie Analyseversuchen, bei denen es in der Vergangenheit Probleme gab. Mangels systematischer Auswertungen sind vermutete Qualitätsmängel nicht greifbar. Der Fachanwender nutzt die Daten nur aggregiert. Von daher besteht kein Ansatzpunkt zur Korrektur. In einem Factsheet inklusive Anwendungsfall beleuchtet André Bukowski, Berater beim BI-Analysten- und Beraterhaus mayato, wie Datenqualitätsberichte eines Internen Kontrollsystems (IKS) helfen können, wenn sie innerhalb eines gesamtheitlichen Maßnahmen-Frameworks Anwendung finden. Das komplette Werk ist kostenfrei bei Mayato erhältlich.
Um der Feststellung eines Missstandes seitens interner oder externer Prüfer vorzugreifen, ist es sinnvoll, zunächst die wirklich kritischen Daten zu identifizieren. Dies können bei einem Finanzinstitut Daten wie Kennzahlen und Merkmale für die Berechnung der Eigenkapitalunterlegung sein, die in aufsichtsrechtlichen Meldungen Verwendung finden oder in Roh- oder verarbeiteter Form an Investoren oder Ratingagenturen übermittelt werden.
Die grundlegendste aller Maßnahmen ist die Sicherstellung der Vollständigkeit der erforderlichen Basisdaten mittels geeigneter technischer Mechanismen. Empfehlenswert sind automatisierte Prüfungen innerhalb von ETL-Prozessen verbunden mit entsprechenden Monitoring-Applikationen. Was sich zunächst einfach liest, entpuppt sich in vielen Unternehmen mit komplexen Prozessen und Systemen als nicht trivial. So lässt sich beispielsweise oftmals eine klare Abgrenzung zwischen verschiedenen Zeiträumen nicht leicht finden, wenn in den Systemen Verträge und Transaktionen 7x24h verbucht werden. Gehört die Buchung um zwei Uhr morgens noch zum Vortag oder ist es schon eine Aktivität des neuen Tages?
Noch schwieriger wird oft der nächste Schritt hin zu einem brauchbaren IKS: mit Unterstützung von Experten aus den Fachbereichen müssen sinnvolle Prüfungen zu den jeweiligen Daten konzipiert werden. Diese können in ihrer Komplexität je nach Ansatz stark unterschiedlich sein. Einfache DQ-Fehler, die durch Fehleingaben in Quellsystemen entstanden sind (PLZ, Telefonvorwahl etc.), können noch durch Data Cleansing und durch entsprechende automatisierte Prüfungen – idealerweise bereits bei Eingabe der Daten – dauerhaft behoben werden. Regeln hierfür lassen sich relativ problemlos definieren und bei Bedarf erweitern.
Komplexere Prüfungen, die bereits verarbeitete und angereicherte Daten (z. B. eine Auskunft zu einem Kunden) betreffen, lassen sich häufig ohne eine Verifikation gegen echte Daten nicht konzipieren. Da ihre Umsetzung meist auch nicht mit Standardwerkzeugen möglich ist und Programmiertätigkeiten erforderlich sind, empfiehlt sich ein agiler Entwicklungsansatz, um die Vollständigkeit der Erkennung von Fehlern und die Vermeidung von Fehlalarmen zu erreichen.
Werkzeugauswahl
Zur Unterstützung der Konzeptions- und Umsetzungsarbeit sind flexible Reportingwerkzeuge erforderlich. Geeignete Plattformen nutzen z. B. In-Memory-Technologien, um große Datenmengen zu analysieren. Auch Data-Profiling-Tools helfen, einen schnellen Überblick über mögliche Feldausprägungen und Konstellationen zu erhalten. Welche Technologie letztlich für die Umsetzung der Prüfregeln genutzt wird, ist von der bestehenden Infrastruktur abhängig. Neben der individuellen Entwicklung im Data Warehouse bietet es sich an, auf Standardlösungen am Markt für Datenqualitätsmanagement zurückzugreifen, beispielsweise DataFlux, Informatica Data Quality oder SAP BO Data Quality Management.
Bei der Auswahl gilt es gewisse Kriterien zu beachten: Revisionssicherheit ist bei jeglichem Vorgehen eine entscheidende Anforderung. Konkret heißt das, dass die Ergebnisse von DQ-Prüfungen - je nach rechtlichem Rahmen - aufbewahrt und historisch auswertbar sein müssen und nicht nachträglich änderbar sein dürfen. Rahmenbedingungen setzen z. B. die Solvabilitätsverordnung (SolvV) oder die MaRisk (Mindestanforderungen an das Risikomanagement). Je nach Abnehmeranwendung können auch Vorschriften zur Rechnungslegung (HGB, IFRS) maßgeblich sein.
Die Durchführung von Prüfungen auf der Datenbank bzw. während der Fortschreibung darf die Regelbeladungen des Data-Warehouse nicht behindern. Durch Scheduling, Prozessketten und ähnliche Maßnahmen sollte ein hoher Automatisierungsgrad erreicht werden.Ein standardisiertes Reporting muss möglich und leicht zugänglich sein. Dabei sollten einfache Fehler-Listen, aggregierte Reports oder auch DQ-Dashboards vom System zur Verfügung gestellt werden können. Die DQ-Lösung muss für neue fachliche Anforderungen an interne Kontrollsysteme erweiterbar sein. Die hier gebotene Flexibilität entscheidet über die spätere Entwicklungszeit und damit die Entwicklungskosten. (mayato: ra)
mayato: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.
Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>