Risikomanagement und Datenqualität
Für die optimale Steuerung von Chancen und Risiken sind eine hohe Datenqualität sowie eine transparente Datenlogistik unerlässlich
GDPdU mit Basel II und Solvency II: In den Unternehmen findet immer noch zu selten eine Überprüfung der Datenqualität auf Basis der Rohdaten statt
(01.08.07) - Unterschiedlichste staatlich verordnete Compliance-Regeln (KonTraG, Basel II, GDPdU, GoBS, SOX, usw.) sind in den letzten Jahren auf nationaler sowie internationaler Ebene verstärkt eingeführt worden. Diese waren zumeist motiviert durch Unternehmensskandale die erhebliche, teilweise ruinöse Auswirkungen auf Investoren, Mitarbeiter sowie Steuerzahler hatten und haben.
Aufgrund der fehlenden Selbstverpflichtung der Unternehmen - zu einheitlichen und transparenten Kontrollmechanismen - sahen sich die Behörden dazu veranlasst selbst tätig zu werden und entsprechende Gesetze zu erlassen. Dies hat wiederum zu Unbehagen und Unverständnis bei den Unternehmen geführt.
Zu beachten ist allerdings, dass die Notwendigkeit ein Risikomanagement zu implementieren, nicht aus der Fülle an unterschiedlichen staatlich erlassenen Gesetzen herrühren sollte, sondern ganz klar aus einer betriebswirtschaftlichen Notwendigkeit, ein effizientes und transparentes Chancen- und Risikomanagement zu betreiben.
Ein Chancen- und Risikomanagement stellt allerdings hohe Anforderungen an das Datenmanagement. Für die optimale Steuerung von Chancen und Risiken sind eine hohe Datenqualität sowie eine transparente Datenlogistik unerlässlich. Die heterogenen IT-Landschaften in den Unternehmen erschweren dies aber erheblich.
Die Schwierigkeit, ein einheitliches und transparentes Bild durch ein entsprechendes Kennzahlensystem des Unternehmens - und die daraus resultierenden Reports für unterschiedliche Adressaten - zu erzeugen, haben insbesondere die GDPdU (Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen) mit ihren Anforderungen an die Datenbereitstellung für die Außenprüfer zu Tage gefördert.
Die Außenprüfung erfolgt immer weniger nach der konventionellen Methode auf Papierebene, sondern verstärkt auf der Basis der steuerlich relevanten originär digitalen Daten (Rohdaten), die mittels eines Datenträgers an den Außenprüfer übergebe werden. Bereits hier treten die ersten Schwierigkeiten bei den Unternehmen auf, diese Daten zur Verfügung zu stellen. Über die Zugriffsarten Z1 und Z2 (mittelbarer und unmittelbarer Zugriff) hat der Prüfer die Möglichkeit seine Analyseergebnisse mit den Ergebnissen der systemeigenen Auswertungsmöglichkeiten abzugleichen. Treten hier Unterschiede auf, ist die Überraschung in den Unternehmen recht groß und ruft unangenehme Fragen seitens des Außenprüfers hervor.
"In den Unternehmen findet immer noch zu selten eine Überprüfung der Datenqualität auf der Basis der Rohdaten statt. Schwächen in der Datenqualität und Datenstruktur wie auch im Datenlogistikprozess werden weder hinsichtlich der Auswirkungen auf die Aussagekraft von Reports, die den innerbetrieblichen Anforderungen entsprechen müssen, noch den unterschiedlichsten Anforderungen aus Basel II, SOX und zukünftig für Solvency II für den Bereich der Assekuranz ausreichend einer Überprüfung unterzogen. Unerkannte Schwächen in den Daten sowie in den Datenlogistikprozessen sind auch meist die Gründe dafür, dass Betrugsfälle durch Mitarbeiter, wie z.B. Unterschlagungen, erst sehr spät erkannt und meist durch Kollege Zufall aufgedeckt werden", so Marco Geuer, Leiter Datenanalyse, deducto GmbH. (deducto: ra)
Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>