Mit KI und Big-Data-Analysen auf Erfolgskurs: Fintechs starten durch

Rund um den Globus floriert der Fintech Sektor und setzt dabei weiterhin auf künstliche Intelligenz (KI) und Big-Data-Analytics.

Die derzeit rund 20.000 Fintechs weltweit sind ehrgeizig, agieren dynamisch und wissen, dass KI, maschinelles Lernen (ML) und Big-Data-Lösungen über Erfolg oder Misserfolg entscheiden. Denn mit diesen Technologien können sie sich von der Konkurrenz, insbesondere konventionellen Finanzinstituten, absetzen.

In der Finanzindustrie werden KI und Big-Data-Lösungen bereits in Bereichen wie dem algorithmischen Handel, dem Monitoring des Handels und der Betrugserkennung eingesetzt. Beim automatisierten Wertpapierhandel, dem sogenannten „algo-trading“, ermöglichen Big-Data-Analysen ein Maß an Flexibilität und Spezialisierung, das für den Menschen unerreichbar ist. Dies allein schon deshalb, weil die Algorithmen den Markt 24 Stunden am Tag, sieben Tage die Woche, im Blick behalten können. Durch entsprechende Vorgaben hinsichtlich besonderer Ereignisse – etwa automatische Ausführung einer Order, wenn der DAX 500 Punkte unter dem gleitenden 20-Tage-Durchschnitt schließt – können die Algorithmen auf überraschende Marktsituationen reagieren, ganz ohne menschliche Emotionen.

Große und bekannte Namen am Finanzmarkt nutzen KI-gestützte, um umfangreiche Transaktionen durchzuführen, ohne dadurch nachteilige Preisbewegungen auszulösen. Dazu zerlegen die Algorithmen größere Ordervolumen anhand vordefinierter Parameter in kleinere Teilorders und koordinieren selbstständig den Zeitpunkt der Orderausführung. Mittels KI-gestützter Finanzdatenanalysen wird eine risikobasierte Preisgestaltung ermöglicht und es lassen sich schnell verdächtige Muster erkennen, die auf Betrug oder Geldwäsche hindeuten, auch wenn betrügerische Investoren über mehrere Konten hinweg zusammenarbeiten.

Doch trotz aller Fortschritte in den Bereichen KI und ML wird der Finanzsektor bislang von der Nutzung komplexerer Modelle oft durch Interoperabilitätsprobleme, Legacy Systeme und dem Mangel an geeignetem Fachpersonal abgehalten. Zudem bestehen aufsichtsrechtliche Bedenken insbesondere in den Bereichen Data Governance, Risikobewertung, Prüf- und Rückverfolgbarkeit sowie der Vermeidung inhärenter Vorurteile.

Für die Fintech-Branche eröffnen diese Herausforderungen, denen Banken und Finanzunternehmen gegenüberstehen, zahlreiche Chancen. So können Fintechs ihre Produkte mit KI noch stärker auf Kundenbedürfnisse individualisieren und Finanzdienstleistungen anbieten, die schneller und kostengünstiger als etablierte Finanzdienstleister sind und trotzdem keine Armada kostspieliger Back-Office-Systeme erfordern. Diese Agilität ist der potenziell größte Vorteil für Fintechs, aber dazu ist auch eine bestmögliche Effizienz bei der Nutzung der Finanzdaten nötig.

Datenqualität und Datenverwaltung sollten oberste Priorität haben

Wie aber können Fintechs und Finanzdienstleister KI und Big-Data-Analytics angesichts der unterschiedlichen Anforderungen einführen? Bevor diese Fragen beantwortet werden können, müssen zunächst einmal die Daten in Ordnung gebracht werden.

Denn trotz ihrer unbestrittenen Innovationskraft zählt auch für Fintechs die Datenqualität noch immer zu den größten Herausforderungen. Ohne einen schnellen und einfachen Zugang zu den richtigen Daten laufen KI- und Analytics-Projekte Gefahr, falsche Schlussfolgerungen hervorzurufen und nicht die gewünschten Transformationsergebnisse liefern zu können, wenn etwa unsaubere Daten die Ergebnisse verfälschen oder nicht alle relevanten Daten in die Analyse eingeflossen sind.

Um das Optimum aus KI und Analytics herauszuholen, müssen daher zunächst unstrukturierte Daten mit strukturierten internen Daten zusammengeführt werden. SQL-Datenbanken sind ein Beispiel für solche strukturierten Datenbanken zu Transaktionsdaten und Kreditsystemen. Sie gibt es bereits seit langer Zeit. Unstrukturierte Daten sind unter anderem Videos, E-Mails und Beiträge in sozialen Medien. Weite Teile des Bankensektors sind im Umgang mit dieser Art von Daten noch vergleichsweise ungeübt und müssen sich die richtige Herangehensweise erst erarbeiten. Da überrascht es kaum, dass die Finanzindustrie KI hauptsächlich auf interne Daten anwenden, anstatt sie für Daten aus externen Quellen wie beispielsweise den sozialen Medien zu nutzen. Ein weiterer Grund: Es fällt naturgemäß leichter, die Qualität der eigenen Daten mit Blick auf die algorithmische Auswertung zu verbessern, als dies für externe Daten umzusetzen. Gleichwohl müssen die Finanzdienstleister auch die Qualität dieser Fremddaten in den Fokus nehmen, um durch deren Verknüpfung mit der hauseigenen Datenbasis Anwendungen rund um deskriptive, diagnostische, prädiktive und präskriptive Analysen entwickeln bzw. bereitstellen zu können.

Die Menge an Finanzdaten wächst rasant

Doch Finanzdienstleister und Fintechs müssen nicht nur das Thema Datenqualität angehen. Sie müssen parallel dazu auch der stetig wachsenden Datenmengen Herr werden. Das ist ganz entscheidend, da Analysen mittels KI-, ML- und BI-Werkzeugen in der Mehrzahl der Anwendungsfälle umso präziser ausfallen, je mehr Daten in die Auswertung einfließen.

Andererseits darf man sich aber auch nicht von der stetig wachsenden Datenlawine überrollen lassen: Schätzungen zufolge beträgt das globale Datenaufkommen mittlerweile bereits 59 Zettabyte (ZB) und dürfte in fünf Jahren bis zu 150 ZB betragen. Es steht zu erwarten, dass dieses rasante Wachstum in ähnlicher Weise auch auf die Finanzbranche zukommen wird. Dazu kommt, dass die Unternehmen der Branche sich nach wie vor auf schlagartig ansteigende Datenmengen vorbereiten müssen, die von unerwarteten Marktbewegungen oder plötzlichen Änderungen des Transaktionsvolumens hervorgerufen werden können. Solche Verarbeitungsspitzen gehören in der Finanzwelt schon längst zum Alltag, müssen aber auch in Zukunft problemlos bewältigt werden können.

Jedes Finanzinstitut steht daher vor der Aufgabe, die richtige Balance von Datenmenge und Datenqualität zu finden, um die mit der Etablierung von KI-getriebenen Geschäftsprozessen verbundenen Ziele tatsächlich realisieren zu können.

Erfolg oder Misserfolg hängen vom Konzept der Finanzdatenanalyse ab

Zusammenfassend lässt sich festhalten, dass ein erfolgsversprechender Einsatz von KI, ML und Big Data Analytics nur mit einem modernen Datenmanagementkonzept gelingen kann, das sowohl in der Lage ist, Daten aus unterschiedlichen externen und internen Quellen zusammenzuführen, zu normalisieren und über alle Abteilungen hinweg für Analysen verfügbar macht.

Die Einführung einer Data Fabric ist wohl der momentan effektivste Ansatz, um diese zentrale Herausforderung zu meistern.  Dabei werden sämtliche Daten aus unterschiedlichen Quellen miteinander verwoben und für die Anforderungen extrem datenintensiver Anwendungen umgewandelt und harmonisiert. So können Unternehmen durch die Verknüpfung von schnelldrehenden, für die Stapelverarbeitung gedachten Daten, und Daten aus der Cloud und aus Bestandssystemen zum Erfolg kommen.

Data Fabrics können zudem dynamisch skaliert werden, um plötzliche Veränderungen des Datenaufkommens zu bewältigen. Dabei werden die Daten durch eine vereinfachte, schlanke Architektur über unterschiedliche Bereitstellungsverfahren hinweg verfügbar gemacht. So können ganz nach Erfordernis unterschiedliche Cloud-Systeme oder Hybrid-Modelle zum Einsatz kommen und über Microservices ein durchgängiger Zugriff auf die Unternehmensdaten realisiert werden.

Wenn es Unternehmen der Finanzbranche gelingt, das Gewirr undurchsichtiger Daten mithilfe einer Data Fabric zu durchdringen, externe und interne Daten nahtlos miteinander zu verknüpfen und dabei schlechte von guten Daten zu trennen, dann sind KI-, ML- und Big-Data-Analytics-Technologien in der Lage, Wettbewerbsfähigkeit, Rentabilität, Servicequalität oder Personalisierung signifikant zu steigern.

Erfahren Sie in unserem Webinar mit Fintech Ireland mehr über die Zukunft der Fintech-Industrie und weshalb datengetriebene Ansätze der Schlüssel zum Erfolg sind: http://bit.ly/38XK8c8

 

Michael Hom

Michael Hom ist Führungskraft im Technologiebereich und verfügt über mehr als 25 Jahre Berufserfahrung in der Finanzdienstleistungsbranche. Bevor er zu InterSystems kam, war Michael als Managing Director verantwortlich für die Verwaltung von globalen Raten, verbrieften Produkten und kommunalen Technologien bei Royal Bank of Canada Capital Markets. Davor betreute er als Geschäftsführer produktübergreifende Technologien, einschließlich Risiko-, Vertriebs- und Handelsmanagement bei Nomura Securities. Michael begann seine Karriere bei Lehman Brothers mit der Entwicklung von Systemen in den Bereichen Kurse, Devisenhandel und Wachstumsmärkte. Anschließend wurde er Senior Vice President und leitete den Bereich Verbriefte Produkte – Gesamtkredite, Immobilien und Principal-Finance-Technologien. Er hat einen Bachelor-Abschluss in Informatik von der Columbia University School of Engineering and Applied Science.

Kommentar verfassen

*