Sie sind hier: Home » Literatur » Schriften

Datenqualität im Bankenbereich


Factsheet inklusive Anwendungsfall: Interne Kontrollsysteme zur Sicherung der Qualität melderelevanter Daten
Um der Feststellung eines Missstandes seitens interner oder externer Prüfer vorzugreifen, ist es sinnvoll, zunächst die wirklich kritischen Daten zu identifizieren


(18.07.12) - In vielen Finanzinstituten eilt den Daten bestimmter Prozesse und Systeme ein schlechter Ruf voraus. Dieser basiert unter anderem auf anekdotischen Berichten zu einzelnen Datensätzen, spezifischen bekannten Fehlerkonstellationen sowie Analyseversuchen, bei denen es in der Vergangenheit Probleme gab. Mangels systematischer Auswertungen sind vermutete Qualitätsmängel nicht greifbar. Der Fachanwender nutzt die Daten nur aggregiert. Von daher besteht kein Ansatzpunkt zur Korrektur. In einem Factsheet inklusive Anwendungsfall beleuchtet André Bukowski, Berater beim BI-Analysten- und Beraterhaus mayato, wie Datenqualitätsberichte eines Internen Kontrollsystems (IKS) helfen können, wenn sie innerhalb eines gesamtheitlichen Maßnahmen-Frameworks Anwendung finden. Das komplette Werk ist kostenfrei bei Mayato erhältlich.

Um der Feststellung eines Missstandes seitens interner oder externer Prüfer vorzugreifen, ist es sinnvoll, zunächst die wirklich kritischen Daten zu identifizieren. Dies können bei einem Finanzinstitut Daten wie Kennzahlen und Merkmale für die Berechnung der Eigenkapitalunterlegung sein, die in aufsichtsrechtlichen Meldungen Verwendung finden oder in Roh- oder verarbeiteter Form an Investoren oder Ratingagenturen übermittelt werden.

Die grundlegendste aller Maßnahmen ist die Sicherstellung der Vollständigkeit der erforderlichen Basisdaten mittels geeigneter technischer Mechanismen. Empfehlenswert sind automatisierte Prüfungen innerhalb von ETL-Prozessen verbunden mit entsprechenden Monitoring-Applikationen. Was sich zunächst einfach liest, entpuppt sich in vielen Unternehmen mit komplexen Prozessen und Systemen als nicht trivial. So lässt sich beispielsweise oftmals eine klare Abgrenzung zwischen verschiedenen Zeiträumen nicht leicht finden, wenn in den Systemen Verträge und Transaktionen 7x24h verbucht werden. Gehört die Buchung um zwei Uhr morgens noch zum Vortag oder ist es schon eine Aktivität des neuen Tages?

Noch schwieriger wird oft der nächste Schritt hin zu einem brauchbaren IKS: mit Unterstützung von Experten aus den Fachbereichen müssen sinnvolle Prüfungen zu den jeweiligen Daten konzipiert werden. Diese können in ihrer Komplexität je nach Ansatz stark unterschiedlich sein. Einfache DQ-Fehler, die durch Fehleingaben in Quellsystemen entstanden sind (PLZ, Telefonvorwahl etc.), können noch durch Data Cleansing und durch entsprechende automatisierte Prüfungen – idealerweise bereits bei Eingabe der Daten – dauerhaft behoben werden. Regeln hierfür lassen sich relativ problemlos definieren und bei Bedarf erweitern.

Komplexere Prüfungen, die bereits verarbeitete und angereicherte Daten (z. B. eine Auskunft zu einem Kunden) betreffen, lassen sich häufig ohne eine Verifikation gegen echte Daten nicht konzipieren. Da ihre Umsetzung meist auch nicht mit Standardwerkzeugen möglich ist und Programmiertätigkeiten erforderlich sind, empfiehlt sich ein agiler Entwicklungsansatz, um die Vollständigkeit der Erkennung von Fehlern und die Vermeidung von Fehlalarmen zu erreichen.

Werkzeugauswahl
Zur Unterstützung der Konzeptions- und Umsetzungsarbeit sind flexible Reportingwerkzeuge erforderlich. Geeignete Plattformen nutzen z. B. In-Memory-Technologien, um große Datenmengen zu analysieren. Auch Data-Profiling-Tools helfen, einen schnellen Überblick über mögliche Feldausprägungen und Konstellationen zu erhalten. Welche Technologie letztlich für die Umsetzung der Prüfregeln genutzt wird, ist von der bestehenden Infrastruktur abhängig. Neben der individuellen Entwicklung im Data Warehouse bietet es sich an, auf Standardlösungen am Markt für Datenqualitätsmanagement zurückzugreifen, beispielsweise DataFlux, Informatica Data Quality oder SAP BO Data Quality Management.

Bei der Auswahl gilt es gewisse Kriterien zu beachten: Revisionssicherheit ist bei jeglichem Vorgehen eine entscheidende Anforderung. Konkret heißt das, dass die Ergebnisse von DQ-Prüfungen - je nach rechtlichem Rahmen - aufbewahrt und historisch auswertbar sein müssen und nicht nachträglich änderbar sein dürfen. Rahmenbedingungen setzen z. B. die Solvabilitätsverordnung (SolvV) oder die MaRisk (Mindestanforderungen an das Risikomanagement). Je nach Abnehmeranwendung können auch Vorschriften zur Rechnungslegung (HGB, IFRS) maßgeblich sein.

Die Durchführung von Prüfungen auf der Datenbank bzw. während der Fortschreibung darf die Regelbeladungen des Data-Warehouse nicht behindern. Durch Scheduling, Prozessketten und ähnliche Maßnahmen sollte ein hoher Automatisierungsgrad erreicht werden.Ein standardisiertes Reporting muss möglich und leicht zugänglich sein. Dabei sollten einfache Fehler-Listen, aggregierte Reports oder auch DQ-Dashboards vom System zur Verfügung gestellt werden können. Die DQ-Lösung muss für neue fachliche Anforderungen an interne Kontrollsysteme erweiterbar sein. Die hier gebotene Flexibilität entscheidet über die spätere Entwicklungszeit und damit die Entwicklungskosten. (mayato: ra)

mayato: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Schriften

  • Auskunftsanspruch von zentraler Bedeutung

    Im Zentrum der DANA (Datenschutz-Nachrichten, Zeitschrift der Deutschen Vereinigung für Datenschutz e. V. (DVD)), Ausgabe 4/2024, stehen die sogenannten Betroffenenrechte der Datenschutz-Grundverordnung (DSGVO) gemäß Artikel 12 ff DSGVO. Dazu gehören die Rechte auf Information seitens des für die Datenverarbeitung Verantwortlichen sowie die Rechte auf Auskunft, Berichtigung, Löschung, Sperrung, Datenübertragbarkeit und das Widerspruchsrecht der Betroffenen.

  • Social Media: Schleichwerbung vermeiden

    Influencer und werbende Unternehmen gleichermaßen sollen durch den Leitfaden eine kompakte Übersicht erhalten, wie Werbung auf Social Media-Plattformen wie Instagram, TikTok und Co. nach Auffassung der Wettbewerbszentrale transparent und im Einklang mit dem Wettbewerbsrecht gekennzeichnet werden kann.

  • Praxisleitfaden zu KI und Datenschutz

    Viele Unternehmen zögern beim Einsatz von KI aus Angst, gegen den Datenschutz zu verstoßen. 70 Prozent aller Unternehmen und sogar 80 Prozent der Unternehmen, die KI nutzen, sehen in einer Bitkom-Umfrage Datenschutzverstöße als größtes Risiko beim KI-Einsatz. Und 62 Prozent meinen, dass sich KI-Dienste in der Cloud nicht mit Datenschutzvorgaben vereinen lassen.

  • Schnelleinstieg in die DSGVO und das BDSG

    Der Flyer "Das Recht auf Datenschutz - Ein Schnelleinstieg in die DSGVO und das BDSG" erklärt die rechtlichen Grundlagen des Datenschutzes. Es werden u.a. der Geltungsbereich, die Ausnahmen und die persönlichen Betroffenenrechte dargestellt.

  • Rolle von BIM und Digitalen Zwillingen

    Der Gebäudesektor ist einer der größten Emittenten von CO2 in Deutschland, liegt bei den notwendigen Einsparungen bis zum Klimaziel 2030 aber zurück. Digitale Technologien können sowohl bei Neubauten als auch bei Bestandsgebäuden einen deutlichen Beitrag dazu leisten, um kurz- und mittelfristig Emissionen zu reduzieren. Hervorzuheben ist dabei insbesondere Building Information Modelling, kurz BIM.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen