Sie sind hier: Home » Literatur » Schriften

Datenqualität im Bankenbereich


Factsheet inklusive Anwendungsfall: Interne Kontrollsysteme zur Sicherung der Qualität melderelevanter Daten
Um der Feststellung eines Missstandes seitens interner oder externer Prüfer vorzugreifen, ist es sinnvoll, zunächst die wirklich kritischen Daten zu identifizieren


(18.07.12) - In vielen Finanzinstituten eilt den Daten bestimmter Prozesse und Systeme ein schlechter Ruf voraus. Dieser basiert unter anderem auf anekdotischen Berichten zu einzelnen Datensätzen, spezifischen bekannten Fehlerkonstellationen sowie Analyseversuchen, bei denen es in der Vergangenheit Probleme gab. Mangels systematischer Auswertungen sind vermutete Qualitätsmängel nicht greifbar. Der Fachanwender nutzt die Daten nur aggregiert. Von daher besteht kein Ansatzpunkt zur Korrektur. In einem Factsheet inklusive Anwendungsfall beleuchtet André Bukowski, Berater beim BI-Analysten- und Beraterhaus mayato, wie Datenqualitätsberichte eines Internen Kontrollsystems (IKS) helfen können, wenn sie innerhalb eines gesamtheitlichen Maßnahmen-Frameworks Anwendung finden. Das komplette Werk ist kostenfrei bei Mayato erhältlich.

Um der Feststellung eines Missstandes seitens interner oder externer Prüfer vorzugreifen, ist es sinnvoll, zunächst die wirklich kritischen Daten zu identifizieren. Dies können bei einem Finanzinstitut Daten wie Kennzahlen und Merkmale für die Berechnung der Eigenkapitalunterlegung sein, die in aufsichtsrechtlichen Meldungen Verwendung finden oder in Roh- oder verarbeiteter Form an Investoren oder Ratingagenturen übermittelt werden.

Die grundlegendste aller Maßnahmen ist die Sicherstellung der Vollständigkeit der erforderlichen Basisdaten mittels geeigneter technischer Mechanismen. Empfehlenswert sind automatisierte Prüfungen innerhalb von ETL-Prozessen verbunden mit entsprechenden Monitoring-Applikationen. Was sich zunächst einfach liest, entpuppt sich in vielen Unternehmen mit komplexen Prozessen und Systemen als nicht trivial. So lässt sich beispielsweise oftmals eine klare Abgrenzung zwischen verschiedenen Zeiträumen nicht leicht finden, wenn in den Systemen Verträge und Transaktionen 7x24h verbucht werden. Gehört die Buchung um zwei Uhr morgens noch zum Vortag oder ist es schon eine Aktivität des neuen Tages?

Noch schwieriger wird oft der nächste Schritt hin zu einem brauchbaren IKS: mit Unterstützung von Experten aus den Fachbereichen müssen sinnvolle Prüfungen zu den jeweiligen Daten konzipiert werden. Diese können in ihrer Komplexität je nach Ansatz stark unterschiedlich sein. Einfache DQ-Fehler, die durch Fehleingaben in Quellsystemen entstanden sind (PLZ, Telefonvorwahl etc.), können noch durch Data Cleansing und durch entsprechende automatisierte Prüfungen – idealerweise bereits bei Eingabe der Daten – dauerhaft behoben werden. Regeln hierfür lassen sich relativ problemlos definieren und bei Bedarf erweitern.

Komplexere Prüfungen, die bereits verarbeitete und angereicherte Daten (z. B. eine Auskunft zu einem Kunden) betreffen, lassen sich häufig ohne eine Verifikation gegen echte Daten nicht konzipieren. Da ihre Umsetzung meist auch nicht mit Standardwerkzeugen möglich ist und Programmiertätigkeiten erforderlich sind, empfiehlt sich ein agiler Entwicklungsansatz, um die Vollständigkeit der Erkennung von Fehlern und die Vermeidung von Fehlalarmen zu erreichen.

Werkzeugauswahl
Zur Unterstützung der Konzeptions- und Umsetzungsarbeit sind flexible Reportingwerkzeuge erforderlich. Geeignete Plattformen nutzen z. B. In-Memory-Technologien, um große Datenmengen zu analysieren. Auch Data-Profiling-Tools helfen, einen schnellen Überblick über mögliche Feldausprägungen und Konstellationen zu erhalten. Welche Technologie letztlich für die Umsetzung der Prüfregeln genutzt wird, ist von der bestehenden Infrastruktur abhängig. Neben der individuellen Entwicklung im Data Warehouse bietet es sich an, auf Standardlösungen am Markt für Datenqualitätsmanagement zurückzugreifen, beispielsweise DataFlux, Informatica Data Quality oder SAP BO Data Quality Management.

Bei der Auswahl gilt es gewisse Kriterien zu beachten: Revisionssicherheit ist bei jeglichem Vorgehen eine entscheidende Anforderung. Konkret heißt das, dass die Ergebnisse von DQ-Prüfungen - je nach rechtlichem Rahmen - aufbewahrt und historisch auswertbar sein müssen und nicht nachträglich änderbar sein dürfen. Rahmenbedingungen setzen z. B. die Solvabilitätsverordnung (SolvV) oder die MaRisk (Mindestanforderungen an das Risikomanagement). Je nach Abnehmeranwendung können auch Vorschriften zur Rechnungslegung (HGB, IFRS) maßgeblich sein.

Die Durchführung von Prüfungen auf der Datenbank bzw. während der Fortschreibung darf die Regelbeladungen des Data-Warehouse nicht behindern. Durch Scheduling, Prozessketten und ähnliche Maßnahmen sollte ein hoher Automatisierungsgrad erreicht werden.Ein standardisiertes Reporting muss möglich und leicht zugänglich sein. Dabei sollten einfache Fehler-Listen, aggregierte Reports oder auch DQ-Dashboards vom System zur Verfügung gestellt werden können. Die DQ-Lösung muss für neue fachliche Anforderungen an interne Kontrollsysteme erweiterbar sein. Die hier gebotene Flexibilität entscheidet über die spätere Entwicklungszeit und damit die Entwicklungskosten. (mayato: ra)

mayato: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Schriften

  • Schnelleinstieg in die DSGVO und das BDSG

    Der Flyer "Das Recht auf Datenschutz - Ein Schnelleinstieg in die DSGVO und das BDSG" erklärt die rechtlichen Grundlagen des Datenschutzes. Es werden u.a. der Geltungsbereich, die Ausnahmen und die persönlichen Betroffenenrechte dargestellt.

  • Rolle von BIM und Digitalen Zwillingen

    Der Gebäudesektor ist einer der größten Emittenten von CO2 in Deutschland, liegt bei den notwendigen Einsparungen bis zum Klimaziel 2030 aber zurück. Digitale Technologien können sowohl bei Neubauten als auch bei Bestandsgebäuden einen deutlichen Beitrag dazu leisten, um kurz- und mittelfristig Emissionen zu reduzieren. Hervorzuheben ist dabei insbesondere Building Information Modelling, kurz BIM.

  • Wenn das Auto eine eigene Identität bekommt

    Der E-Mail-Zugang, das Konto beim Online-Shopping oder für die elektronische Steuererklärung und der Personalausweis in der Brieftasche mit freigeschalteter Online-Funktionalität - wir alle identifizieren uns regelmäßig auch digital. Meistens handelt es sich dabei jedoch um isolierte Insellösungen, die nicht besonders komfortabel sind und bei denen die Nutzerinnen und Nutzer meist weder Übersicht noch Kontrolle darüber haben, welche ihrer Daten wo genau gespeichert werden.

  • Täglicher Begleiter im Compliance-Alltag

    Die Broschüre "Erste Hilfe zur Einführung eines Compliance-Systems" unterstützt Compliance-Verantwortliche bei der Einführung in ein risikobasiertes Compliance Management System (CMS).

  • Was versteht man unter einer Lieferkette?

    Das am 1.1.2023 in Kraft getretene Gesetz über die unternehmerischen Sorgfaltspflichten in Lieferketten (Lieferkettensorgfaltspflichtengesetz - LkSG) folgt als logische Konsequenz der Entwicklungen der letzten Jahre. Ziel des Gesetzes ist die Einhaltung und der Schutz der Menschenrechte und bestimmter Umweltstandards durch Vermeidung von Risiken, die im Rahmen der unternehmerischen Tätigkeit entstehen können.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen