Jim Stock

ist Country Manager DACH bei MapR.

Big DataData & Storage

Banking Compliance und Big Data: Wie geht das zusammen?

Seit einigen Jahren setzen Banken und Finanzdienstleister zunehmend auf Big Data. Jim Stock von MapR erklärt, was Banken tun müssen, um Kosten zu sparen und Compliance-Risiken gering zu halten.

Ein Mangel an Frameworks und Referenzarchitekturen für Data Lakes besteht nicht – gerade auch wenn es um Compliance, also die Einhaltung von Richtlinien und Gesetzen geht. Vielen Finanzunternehmen gelingt es jedoch nicht, aus Big Data einen Mehrwert zu schlagen. Ihre Systeme sind oft veraltet und mit den komplexen Aufgaben des Tagesgeschäfts überfordert.

Big Data für Compliance

Die größten Compliance-Probleme gibt es traditionell beim Kunden-Reporting. Fehler in diesem Bereich haben die weltgrößten Investmentbanken binnen der letzten sieben Jahre Strafzahlungen in Höhe von 43 Milliarden US-Dollar gekostet. Addiert man diese Strafen mit den Kosten von Compliance insgesamt, kommt man auf einen immensen Kostenfaktor. Besonders stark macht er sich bemerkbar, weil das durchschnittliche Aufwand-Ertrag-Verhältnis in Großbanken noch immer zu hoch ist – in vielen Fällen beträgt es mehr als 50 Prozent.

Analytics (Bild: SAP)

Zwar haben die Banken in der jüngeren Vergangenheit viel unternommen, um die Kosten zu senken. Noch immer gibt es aber Bereiche, in denen neue Datenplattformen die Geschwindigkeit und den Automatisierungsgrad erhöhen können, während sie gleichzeitig die Betriebskosten senken. Besonders im Compliance-Bereich hat Big Data viel Potenzial. Die Datenmassen können helfen, Risiken zu reduzieren und potenzielle Probleme in Echtzeit zu erkennen und zu lösen.

Wie genau funktioniert das? Es hilft, sich zur vergegenwärtigen, welche Voraussetzungen moderne Datenplattformen erfüllen müssen, damit sie sich für Compliance-Zwecke eignen:

  • Geschwindigkeit: Großkunden von Banken – und selbstverständlich auch Auditoren – verlangen immer regelmäßiger und in immer kürzeren Abständen Zugang zu Informationen über Risiken und zu möglichen Expositionsszenarien. Echtzeit-Analysen sind deshalb von entscheidender Bedeutung. Außerdem müssen Produktionsumgebungen ein ausreichendes Maß an Skalierbarkeit aufweisen, damit sie die Bewegung großer Datenmassen aushalten.
  • Archivierung: Regulatoren verlangen von Banken und Finanzdienstleistern, dass sie immer mehr Daten für immer größere Zeiträume vorhalten. Banken müssen außerdem mittels Analytics die Integrität der Daten sicherstellen – dabei geht es auch um Sprachaufnahmen. Man sollte im Hinterkopf behalten: Wenn bei einem Audit auch nur ein halber Telefonanruf fehlt, stellt das schon einen Verstoß dar.
  • Komplexität: Die zunehmend komplexen globalen Assets, die gehandelt und in Portfolios gehalten werden, umfassen nicht nur mehr Daten – etwa Zahlungen, festverzinsliche Anlagen und Derivate –, sondern auch eine große Menge unstrukturierter Daten, die von Big-Data-Plattformen aufbereitet werden können.
  • Kosten: Mit hohen Legacy-Kosten und mehr und mehr Personal, das sich um Compliance und Regulation kümmert, müssen Unternehmen an der Kostenschraube drehen. Aufgrund des gewachsenen Umfangs ist es nämlich nicht mehr ohne weiteres möglich, das Problem einfach mit Geld zuzukleistern. Stattdessen sollten Banken auf mehr Automatisierung und selbstlernende Algorithmen setzen.
  • Agilität: Richtlinien und Gesetze ändern sich, Märkte ebenfalls. Datenplattformen müssen in der Lage sein, sich flexibel daran anzupassen.

Mit diesen Anforderungen an Big-Data-Plattformen vor Augen, wird es offensichtlich, weshalb Banken auf eine Plattform setzen sollten, die einerseits leistungsstark und agil ist, andererseits aber auch Daten von neuen und von Legacy-Quellen gleichermaßen problemlos erfassen kann.

Die Schwächen gegenwärtiger Deployments

Viele Unternehmen schöpfen in Sachen Compliance aus Big Data noch nicht das volle Potenzial aus. Es bedarf eines größeren Vertrauens in Datenqualität und -herkunft sowie in Metadaten-Management, um die bestmöglichen Ergebnisse zu erzielen. Der Übergang von Big-Data-1.0- zu Big-Data-2.0-Lösungen, die besser auf die Anforderungen ausgelegt sind, kann helfen, dieses Ziel zu erreichen. Während es früher vor allem um einfaches Offload und Testing ging, müssen jetzt komplexe Geschäftsprozesse unterstützt und bewältigt werden.

PartnerZone

Effektive Meeting-und Kollaboration-Lösungen

Mitarbeiter sind heute mit Konnektivität, Mobilität und Video aufgewachsen oder vertraut. Sie nutzen die dazu erforderlichen Technologien privat und auch für die Arbeit bereits jetzt intensiv. Nun gilt es, diese Technologien und ihre Möglichkeiten in Unternehmen strategisch einzusetzen.

Es verwundert daher nicht, dass Apache Spark derzeit an MapReduce vorbeizieht. Der Markt hat den Wert von Big Data mittlerweile erkannt, und immer mehr Frameworks, Lösungen und Projekte werden entwickelt, die die immensen Herausforderungen im Unternehmen bewältigen können. Veraltete Systeme sind damit überfordert.

Aber nicht nur die Technik, auch andere Bereiche bereiten zuweilen Probleme. Zum Beispiel werden Daten oft nicht für Compliance auf breiter Basis und über mehrere Portfolios hinweg genutzt, sondern verharren in Silos – entweder auf Asset- oder auf Business-Ebene. Selbst dort, wo eine etwas breitere Nutzung erfolgt, geht es selten um Reporting – genau das ist aber die Voraussetzung für Compliance.

Wo liegen die Fehler?

Die Silo-Mentalität beruht häufig auf festgefahrenen Prozessen, oft sind aber auch politische Hürden für sie verantwortlich. Solange Informationen in Silos verbleiben, können auch weiterhin nur manuelle Eingriffe rechtzeitige Reports sicherstellen. Weil Menschen aber mehr Fehler machen als Algorithmen, steigen wiederum die Risiken. Banken zögern noch immer, sich Datenplattformen zuzuwenden, die zu komplexen Berechnungen und Echtzeitanalysen in der Lage sind. Dabei sind genau solche Lösungen mittlerweile vorhanden und warten nur auf ihre Implementierung. Die aktuelle Lage erinnert an die Entwicklung des Cloud-Markts.

Viele Unternehmen experimentierten bereitwillig mit Cloud-Lösungen, aber beim Sprung zum weitflächigen Einsatz in kritischen Geschäftsbereichen zögerten sie – und das obwohl zuverlässige Lösungen längst zur Verfügung standen.

Big Data wird es ähnlich gehen wie der Cloud – überlegene Technologien setzen sich früher oder später durch. Zu groß sind die Effizienz- und Kostenvorteile, die Banken und Finanzdienstleister erlangen können. Wer diesen Sprung jetzt wagen will, der sollte verschiedene Punkte beachten:

  • Grundlage sollte eine Open-Source-Framework sein, das die schnelle Integration neuer Lösungen erlaubt.
  • Anbieter, deren Big-Data-Plattformen für kundenorientierte Anwendungen genutzt werden, sind zu bevorzugen. Denn diese Art von Anwendungen sind zumeist besonders herausfordernd.
  • Plattformen müssen Silos auflösen und Legacy-Strukturen aufbrechen – anstatt sie sinnlos zu reproduzieren.
  • Um auch Compliance-Anforderungen zu erfüllen, bedarf es leistungsstarker Governance-Lösungen für Datenseen, die Daten-Standards berücksichtigen, existierende Datenmodelle nutzen und eingehende Datenströme mit hoher Geschwindigkeit strukturieren können.

Für Unternehmen der Finanzbranche ist es an der Zeit, verstärkt in moderne Big-Data-Plattformen zu investieren. Wer zuerst Vertrauen fasst, der kann zuerst von den Vorteilen profitieren.