Skip to content
Suchen Sie nach Produkten und Lösungen von InterSystems, Karrieremöglichkeiten und mehr.

Legacy-IT und heterogene IT-Landschaften in der Finanzbranche

Interview

Legacy-IT und heterogene IT-Landschaften
Modernes Datenmanagement für Banken und Versicherer

Entscheidend ist ein effektives Datenmanagement

Modernes Datenmanagement und eine erklärbare Künstliche Intelligenz (XAI) sind für Banken und Versicherer nicht mehr verhandelbar. Im Interview betont Tom Hartung (InterSystems) die Herausforderungen durch heterogene IT-Landschaften und Legacy-IT.

Herr Hartung, der Konkurrenz- und Modernisierungsdruck auf traditionelle Banken ist ja enorm. Liegt das an der gestiegenen Erwartungshaltung durch moderne Apps und GAFAs?

Tom Hartung: Meiner Meinung nach hängt der steigende Modernisierungsdruck vor allem mit den veralteten IT-Architekturen zusammen, die wir in vielen traditionellen Banken noch sehen. Dadurch wird der Zugriff auf Daten in Echtzeit erschwert, und es entstehen Datensilos, die es verhindern, Informationen gezielt zu nutzen. Hinzu kommt der Fachkräftemangel. IT-Experten, die sich mit den alten Systemen noch auskennen und die entsprechenden Programmiersprachen beherrschen, sind rar geworden.Viele von ihnen gehen in Rente. Aber natürlich kommt der Veränderungsdruck auf die etablierten Geldhäuser auch von Seiten der sogenannten Neobanken. Mit ihren kostengünstigen Angeboten und nutzerfreundlichen Apps können sie gerade bei jüngeren Zielgruppen punkten.

Es heißt, dass die Gesamtbanksteuerung für Finanzinstitute bei ihrer Modernisierung zentral sei. Aber wäre es nicht viel wichtiger, die Kunden-Frontends attraktiver zu gestalten?

Natürlich ist ein attraktives Kunden-Frontend wichtig, sowohl um Bestandskunden an sich zu binden als auch, um neue, jüngere Kunden zu gewinnen. Die Gesamtbanksteuerung ist existenziell – nur damit kann ein Geldhaus auf Dauer überleben. Daher ist es entscheidend, dass sich zentrale Aspekte wie die finanzielle Situation, die Kundenabwanderungsrate oder die Risikogewichtung jederzeit schnell aus den Daten abrufen lassen. Damit die Bank die richtige Balance zwischen Gewinnchancen und Risiken halten kann, müssen die richtigen Daten unmittelbar verfügbar sein – etwa um zu erkennen, ob sie überlebensfähig bleibt, wenn ein bestimmter Anteil der Kunden abwandert.

Woran hapert es bei den Finanzinstituten mit Blick auf ihre IT aus Ihrer Sicht derzeit am meisten?

Das größte Problem sind meiner Meinung nach die vielerorts sehr heterogenen IT-Landschaften, die durch Zukäufe und organisches Wachstum sowie durch den Weiterbetrieb von Altsystemen entstanden sind. Sie begünstigen Inkompatibilitäten und die Entstehung von Datensilos. In vielen Finanzunternehmen sind die Daten über verschiedene Abteilungen verstreut. Kurzfristig die jeweils relevanten Informationen zusammenzustellen, ist damit kaum möglich. Eine Risikobewertung beispielsweise kann unter Umständen mehrere Wochen dauern. Dann ist ein großer Teil der Ergebnisse wieder veraltet. Ein weiteres Hindernis besteht darin, dass vielerorts eine saubere Datenbasis fehlt. Dadurch sind Suchen, Identifizieren und Aufbereiten der Informationen extrem aufwändig. Da hilft auch der Einsatz von KI nicht, denn selbst die besten Algorithmen können aus unvollständigen und unsauberen Daten keine brauchbaren Ergebnisse generieren.

Was würde ein besseres Datenmanagement konkret bringen?

Mit einem effektiven Datenmanagement erhält die Bank eine umfassende und vollständige Übersicht über ihre wirtschaftliche Gesamtlage sowie über die Kundensituation. Außerdem verfügt sie damit über eine saubere und solide Datenbasis – eine wichtige Voraussetzung, um schnell belastbare Berichte und fundierte Analysen zu erstellen sowie KI erfolgreich zum Einsatz zu bringen.

Welche Risiken bietet eine moderne IT-Finanzarchitektur, die das Datenmanagement ins Zentrum stellt?

Auf dem Weg zu einem beziehungsweise bei einem datengetriebenen Unternehmen geht es ja darum, aus den vorhandenen Daten Mehrwerte zu schöpfen. Zum Beispiel durch Analysen dieser Daten. Ein Risiko dieses Ansatzes besteht darin, dass Datenanalysen nicht korrekt sind, wenn sie auf fehlerhaften Modellen basieren. Zum Beispiel lassen sich mit einem falsch trainierten Vorhersagemodell keine genauen Prognosen aufstellen. Um solche Risiken zu reduzieren, ist die Wahl des richtigen Partners entscheidend. Der Lösungsanbieter sollte bereits eine Weile am Markt existieren, also über fundierte Erfahrung verfügen. Wichtig ist aber auch, dass der Partner qua Geschäftsmodell auf langfristige Kundenbeziehungen setzt. Denn smartes und besseres Datenmanagement ist ein Marathon, kein Sprint. Da kommt es auch auf einen guten Tempomacher an.

Und welche Vorteile bietet eine Gesamtbanksteuerung, zum Beispiel um das regulatorische Meldewesen leichter in den Griff zu bekommen?

Wenn die Gesamtbanksteuerung über eine solide Datenplattform funktioniert, lassen sich Daten mehrfach verwenden und sofort verfügbar machen. Die Bank kann also auf Vorgaben im Meldewesen schneller reagieren. Für wesentlich wichtiger halte ich aber den Aspekt der Datenmonetarisierung. Zum Beispiel lassen sich mit einer KI-gestützten Gesamtbanksteuerung typische Muster der Kundenabwanderung aufzeigen und schnell geeignete Gegenmaßnahmen ergreifen.

Und womit sollten Finanzinstitute beginnen, um ihre Daten in Mehrwerte zu verwandeln?

Dazu fallen mir spontan zwei Dinge ein. Zum einen sollten Finanzinstitute für eine entsprechende Datenkultur sorgen. Das bedeutet, dass jedem Mitarbeiter und jeder Mitarbeiterin klar ist, für welche Daten er oder sie verantwortlich ist, wie diese definiert sind, und wie und in welchem Rhythmus sie zu aktualisieren und zu pflegen sind. Das Verständnis für den Wert, den Daten heutzutage im Unternehmen darstellen, ist dabei sicher hilfreich. Die zweite wichtige Grundlage ist eine saubere Datenbasis, auf der das Management und die Analyse von Daten aufsetzen können. Erschwert wird dies durch die immer noch häufig anzutreffenden „Spaghetti-Architekturen“ mit ihren heterogenen Formaten und Schnittstellen. Wer nicht die komplette IT-Landschaft austauschen will, sollte eine intelligente End-to-End-Entscheidungsplattform implementieren, die sich ohne Eingriff in die bestehende Infrastruktur quasi als Mantel über die verschiedenen Datentöpfe legt und diese miteinander verbindet. Damit lassen sich Daten unabhängig von deren Herkunft bedarfsgerecht extrahieren, normalisieren und an andere Lösungen weitergeben. Wenn diese Plattform dann noch Geschäftsprozesse orchestrieren kann und native Analysefunktionen mitbringt, sind die Voraussetzungen für eine smarte Datennutzung sehr gut.

Viele Finanzinstitute zögern, ihre Systeme und Daten in die Cloud zu verlagern, trotz offensichtlicher Vorteile. Ist ein Datenmanagement in der Cloud nicht sinnvoller?

Grundsätzlich ist Datenmanagement in der Cloud absolut zu empfehlen. Voraussetzung ist allerdings eine hybride Plattform, die alle relevanten Prozesse so integriert, dass kein weiterer Datentransfer erfolgen muss. Denn wenn eine Bank die Analysetools ihres Cloud-Anbieters nutzt, entstehen unter Umständen redundante Daten. Und vor allem die Übertragung der zu analysierenden Daten und der ausgewerteten Datensätze zwischen verschiedenen Systemen, die sogenannten ETL-Prozesse (Extract, Transfer, Load), verursachen hohe Zeitaufwände und Kosten. Das On-Premise-Modell ist dagegen für DSGVO-relevante Daten und Anwendungen wie Zahlungsverkehr und Kreditvergabe zu empfehlen. Für Finanzinstitute bieten sich daher hybride Deployment-Modelle an, also der parallele Betrieb von On-Premise und Cloud.

Wenn Sie die Entwicklung der Banksteuerung und des Datenmanagements in der Zukunft betrachten (besonders unter dem Gesichtspunkt AI und XAI): Wie wird die Technologie dazu in fünf Jahren aussehen?

Momentan redet fast jeder über künstliche Intelligenz. Aber die Vorstellungen, wie und wozu sie sich überhaupt sinnvoll verwenden lässt, sind vielerorts noch unklar. Zudem liegen Daten heute in wenigen Banken so strukturiert und konsolidiert vor, dass sie sich für aussagefähige Analysen nutzen lassen. Und für die meisten Häuser dürfte es noch mit einigem Aufwand verbunden sein, sie entsprechend aufzubereiten. Meiner Meinung nach wird XAI, also Explainable Artificial Intelligence, Anwendern und Kunden die Sicherheit geben, ausreichend hinter das Analysemodell schauen zu können. Die Erklärung, auf welcher Basis die KI welche Entscheidung getroffen hat, kann hoffentlich auch das Misstrauen, das KI häufig noch entgegenschlägt, reduzieren oder vielleicht sogar beseitigen.

Herr Hartung, vielen Dank für das Interview.

Erstveröffentlichung am 02. August 2023, IT-Finanzmagazin

RELATED TOPICS

Andere Ressourcen, die Ihnen gefallen könnten.

11 Sept. 2024
InterSystems IRIS for Health
Entwickler von digitalen Gesundheitslösungen stehen vor großen Herausforderungen, wenn sie versuchen, klinische oder geschäftliche Logik in Prozesse im Gesundheitswesen zu integrieren. Die Aufgabe wird durch das Vorhandensein von Hunderten verschiedener elektronischer Gesundheitsakten und anderer klinischer sowie geschäftlicher Systeme erschwert. Jüngste Interoperabilitätsstandards im Gesundheitswesen wie HL7® FHIR®, SMART und CDS Hooks™ sind zwar hilfreich, erfordern jedoch, dass die Entwickler mit diesen sich weiterentwickelnden Standards Schritt halten und die Unterschiede zwischen Anbietern und Standorten berücksichtigen. Und das alles, während sie ihren Kerncode verwalten und die Entwicklung ihres Produkts vorantreiben.
04 Sept. 2024
Künstliche Intelligenz im Gesundheitswesen
Die Medizin ist mit ihrer Fülle an Diagnose- und Behandlungsdaten prädestiniert für KI-Anwendungen. Drei Anwendungsfälle zeigen, wo sich KI heute im administrativen klinischen Bereich einsetzen lässt.
09 Aug. 2024
Eine Data Fabric modernisiert die Datenverwaltung, indem sie den Zugriff, die Umwandlung und die Harmonisierung von Daten für verschiedene Geschäftsanwendungen vereinfacht.
08 Aug. 2024
Künstliche Intelligenz im Gesundheitswesen
Gesundheitsdienstleister setzen auf künstliche Intelligenz (KI) und maschinelles Lernen (ML), um die Versorgung zu verbessern, Prozesse und Arbeitsabläufe zu optimieren und neue Erkenntnisse zu gewinnen
05 Aug. 2024
Supply Chain
Erfahren Sie, wie der InterSystems Supply Chain Orchestrator™ die Abläufe in der Lieferkette mit Echtzeitdaten und direkt verwertbaren Erkenntnissen verbessert. Supply Chain Orchestrator umfasst ein erweiterbares Datenmodell, eine Integrations-Engine und ein API-Framework, mit denen Sie umfassende Echtzeitanwendungen für die Auftragsabwicklung, die Bearbeitung von Störungen, die Bedarfsprognose und vieles mehr erstellen können.
01 Aug. 2024
Künstliche Intelligenz im Gesundheitswesen - Potenziale und Anwendungsfälle
Operationen stellen einen kostenintensiven Bereich in Kliniken dar und weisen somit auch einen signifikanten Einfluss auf die Wirtschaftlichkeit auf. KI kann helfen, die OP-Dauer besser zu prognostizieren. Patienten, Klinikpersonal und Klinikmanagement profitieren.
31 Juli 2024
Partnerschaft
InterSystems, einer der weltweit renommiertesten Anbieter von Datenmanagement-Plattformen, erweitert sein Partnernetzwerk, um Innovationen im Supply Chain Management zu ermöglichen. Angesichts ständiger Veränderungen, Störungen und Chancen benötigen Unternehmen eine einheitliche und zuverlässige Datenquelle, die in Echtzeit verfügbar ist. InterSystems Supply Chain Orchestrator beseitigt die Datenprobleme, die Unternehmen auf dem Weg zu einer erkenntnisgestützten Optimierung ihrer gesamten Lieferkette haben. Erweitern Sie das Ökosystem Ihrer Lieferkettenanwendungen durch den Einsatz einer zentralen Datenplattform, die als Bindeglied fungiert und die nahtlose Integration verschiedener Datenquellen sowie die Erkennung von Störungen und Chancen in Echtzeit ermöglicht. Dieser einheitliche Ansatz bietet einen umfassenden Überblick über die Lieferkettendaten Ihres Unternehmens und führt zu einer einheitlichen Betrachtungsweise.
29 Juli 2024
Harris Associates
Durch die Implementierung von InterSystems Smart Data Fabric durchbricht Harris Associates Datensilos und verkürzt die Zeit, die für fundierte Geschäftsentscheidungen benötigt wird.
29 Juli 2024
Technologieleitfaden
Ermöglicht Integratoren und Entwicklern die Bereitstellung hochgradig individueller intelligenter Lieferkettenanwendungen
23 Juli 2024
Künstliche Intelligenz im Gesundheitswesen - Potenziale und Anwendungsfälle
KI-gestützte Managed Services helfen bei der Senkung der No-Show Raten in Kliniken. Die Vorteile liegen auf der Hand: Gewährleistung einer durchgehenden Patientenversorgung, ausgewogenere Arbeitsbelastung des Klinikpersonals, Kosteneinsparungspotenziale nutzen.

Machen Sie den nächsten Schritt

Wir würden gerne mit Ihnen reden. Füllen Sie einige Angaben aus und wir melden uns bei Ihnen.
*Erforderliche Felder
Highlighted fields are required
*Erforderliche Felder
Highlighted fields are required
** Durch die Auswahl von "Ja" erklären Sie sich damit einverstanden, dass wir Sie für Neuigkeiten, Updates und andere Marketingzwecke in Bezug auf bestehende und zukünftige Produkte und Veranstaltungen von InterSystems kontaktieren. Darüber hinaus erklären Sie sich damit einverstanden, dass Ihre geschäftlichen Kontaktinformationen in unsere CRM-Lösung eingegeben werden, die in den Vereinigten Staaten gehostet wird, aber im Einklang mit den geltenden Datenschutzgesetzen gepflegt wird.