Skip to content
Suchen Sie nach Produkten und Lösungen von InterSystems, Karrieremöglichkeiten und mehr.

Die Schlüsselrolle eines effizienten Datenmanagements: Wie Finanzdienstleister in volatilen Märkten erfolgreich bleiben

Effizientes Datenmanagement für die Finanzdienstleister

Finanzdienstleister müssen heute der Volatilität der Märkte standhalten, agil und flexibel auf Kundenwünsche eingehen und sich gleichzeitig gegenüber neuen und alten Wettbewerbern behaupten. Das schaffen sie nur mit einer soliden Datenbasis und modernen Tools für ein effizientes Datenmanagement.

Der Druck auf die Finanzbranche steigt – vor allem wegen des wachsenden Wettbewerbs sowie steigender regulatorischer Anforderungen. So haben die Aufsichtsbehörden strenge Parameter für Produkte festgelegt, die sich an verschiedene Kundentypen richten. So hat der Rat der Europäischen Union im Februar 2024 Änderungen an der Verordnung über Märkte für Finanzinstrumente (MiFIR) und der zweiten Richtlinie über Märkte für Finanzinstrumente (MiFID II) zugestimmt, um die Transparenz auf den Kapitalmärkten weiter zu erhöhen. Zudem gibt es Überlegungen zu neuen ESG-Vorgaben.

Hinzu kommt, dass sich viele Führungskräfte im Finanzsektor nach wie vor auf interne Berichte verlassen müssen, die auf einer veralteten Datenbasis beruhen. So ergab eine internationale Umfrage unter Vermögensverwaltern, dass lediglich drei Prozent auf Daten zurückgreifen können, die weniger als fünf Stunden alt sind. In einem von Marktschwankungen geprägten Geschäft kommt es jedoch auf sekundengenaue Informationen an. Verspätete Reaktionen können sich negativ auf die Erträge auswirken. Der Druck steigt aber auch von Seiten der Kunden. Sie verlangen von den Finanzdienstleistern eine stärkere Diversifizierung der Angebote, also auch die Möglichkeit der Anlage in Instrumenten wie Kryptowährungen oder alternativen Investments.

Banken brauchen eine solide Datenbasis

Um all diesen Anforderungen gerecht zu werden, sind Finanzinstitute auf eine solide Datenbasis angewiesen – sprich: vollständige, saubere, verlässliche und möglichst granulare Daten. Durch gezielte Datenanalysen lassen sich Erkenntnisse gewinnen, die bei der Einhaltung der regulatorischen Vorgaben und der Diversifizierung in neue Asset-Klassen helfen. Der Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML), insbesondere von generativer KI (GenAI), erfordert ebenfalls große Mengen an hochwertigen Daten.

Das gilt auch für das Thema Customer Experience. Die Pandemie hat die Digitalisierung des Bankensektors zwar vorangetrieben und zu einer stärkeren Personalisierung des Kundengeschäfts geführt. Doch das reicht nicht, um die Wettbewerbsfähigkeit langfristig sicherzustellen. Dazu bedarf es eines noch effizienteren Datenmanagements, um mittels einer 360-Grad-Sicht auf Kunden deren Verhaltensmuster analysieren zu können. Auf Basis dieser Erkenntnisse können sie Anlagepräferenzen der Kunden analysieren und ihre Produkte dynamisch anpassen oder Kundenabwanderungen entgegenwirken und erhalten obendrein auch einen besseren Einblick in Sachen Compliance.

Erschwerte Bedingungen für effizientes Datenmanagement

Allerdings sind die Daten der Banken oft in verschiedenen Transaktions- und Bestandssystemen sowie in unstrukturierten Formaten wie E-Mails gespeichert. Für eine solide Datenbasis müssen sie daher zunächst in einer Quelle zusammengeführt und bereinigt werden. Und das kostet Zeit und personelle Ressourcen. Es dauert oft noch zu lange, bis aus diesen verteilten Daten ein konsolidierter strukturierter Datensatz erzeugt wird. Angesichts der steigenden Anforderungen ist es zudem hilfreich, Kunden-, Markt- und Transaktionsdaten zeitnah zu kombinieren, um schneller neue Erkenntnisse zu gewinnen. Relationale Datenbanken eignen sich dafür jedoch nur bedingt, da sie unstrukturierte Datenformate wie E-Mails, Audio- oder Video-Daten nur eingeschränkt verarbeiten können.

Erschwert werden diese Aufgaben durch Datensilos, die vor allem durch die steigenden M&A-Aktivitäten der letzten Jahre zugenommen haben. Auch der Wechsel zu anderen Anlageklassen ist oft mit neuen Workflows und der Einbindung verschiedener Teams verbunden und erhöht dadurch die Zahl der Datensilos.

Ein zentraler Daten-Hub schafft Abhilfe

Um diese Herausforderungen zu bewältigen, bietet sich die Einrichtung eines zentralen Hubs an, der alle aktuellen Informationen bereitstellt, die gerade benötigt werden. Ein Beispiel ist das sogenannte Enterprise Data Fabric, das wie eine Schicht zwischen den Datenpools liegt. Damit lässt sich sicherstellen, dass die Endanwender mit verschiedenen Systemen auf eine Single Source of Truth zugreifen können. Auf diese Weise können die Finanzinstitute aus einer Vielzahl interner und externer Datenquellen wertvolle Erkenntnisse in Echtzeit gewinnen. Damit können sie die regulatorischen Vorgaben leichter einhalten, ihre Kunden besser verstehen und ihre Dienstleistungen gezielt auf deren Anforderungen zuschneiden. Das Entscheidende an diesem Ansatz: Die bestehenden Systeme zur Datenhaltung und -analyse bleiben dabei unangetastet und müssen nicht kostenaufwendig ausgetauscht werden (kein „Rip & Replace“).

Mit der Entwicklung neuer Produkte und Dienstleistungen wird das Datenvolumen weiterwachsen. Auch die Komplexität der Informationen nimmt durch das Hinzufügen neuer Datenquellen sowie durch den Einsatz von KI und ML zu. Gut aufgestellt sind Banken, die Tools und Technologien einsetzen, mit deren Hilfe sie ihre Datenarchitekturen vereinfachen und einen zentralen Daten-Hub nutzen können. Denn damit können sie mehr und wertvollere Erkenntnisse aus ihren Daten ziehen und diese schnell in kundenorientierte Aktivitäten umsetzen.

RELATED TOPICS