Skip to content
Suchen Sie nach Produkten und Lösungen von InterSystems, Karrieremöglichkeiten und mehr.

Bewährte Strategien für die Entscheidungsfindung in volatilen Märkten

Bewährte Strategien für die Entscheidungsfindung in volatilen Märkten

Die Finanzbranche hat in den letzten Jahren viel über die Entscheidungsfindung in einem volatilen Marktumfeld lernen müssen. Die Fähigkeit, schnell auf geopolitische Ereignisse oder Marktzusammenbrüche zu reagieren, kann sich sowohl auf die Risikominderung als auch auf die Steigerung der Rentabilität auswirken, schreibt Virginie O'Shea, CEO und Gründerin von Firebrand Research. Dies erfordert jedoch eine gute Beherrschung sowohl interner als auch externer Datensätze, was in einer Betriebsarchitektur, in der die Daten in Silos im gesamten Unternehmen liegen, eine Herausforderung darstellt, erklärt Frau O'Shea in diesem Artikel.

Finanzunternehmen stehen unter großem Druck, ihre Datenbestände besser in den Griff zu bekommen. Die Aufsichtsbehörden haben die Zeit, in der Finanzinstitute Anfragen beantworten müssen, schrittweise verkürzt und die Anforderungen an die Berichterstattung in allen Geschäftsbereichen erhöht. Die Erwartungen der Kunden an die Berichterstattung und die Reaktionszeiten von Dienstleistungen sind gestiegen, da Transparenz und Governance in den Vordergrund gerückt sind. Darüber hinaus nimmt die Digitalisierung in allen Sektoren weiter zu und die Unternehmen haben mit einem viel größeren Datenvolumen in einer Vielzahl von Formaten zu tun, von strukturiert bis unstrukturiert.

Manuelle Berichtserstellung nicht mehr zeitgemäß

Der typische Prozess der manuellen Erstellung eines Berichts und der Aggregation von Daten über Tabellenkalkulationen sowie das Verlassen auf das IT-Team zur Normalisierung der Daten aus vorgelagerten Systemen ist in der heutigen Marktsituation nicht mehr praktikabel. Außerdem ist die Darstellung sehr unübersichtlich und statisch, was bedeutet, dass es fast unmöglich ist, die Daten sinnvoll abzufragen oder aktiv zu analysieren. Angesichts der Anzahl von Berichten, die von einem Finanzinstitut erstellt werden müssen, um geschäftliche, kundenbezogene und aufsichtsrechtliche Anforderungen zu erfüllen, stellt dies auch eine erhebliche interne Kosten- und Betriebsbelastung in Form von Arbeitsstunden dar. Engpässe in der IT-Abteilung und im Betrieb können sich häufig auf den Zeitrahmen für die Erstellung von Berichten auswirken, was dazu führen kann, dass Geschäftsmöglichkeiten verloren gehen, Kunden unzufrieden sind und gesetzliche Auflagen nicht eingehalten werden.

Smart Data Fabric löst Probleme eines großen Finanzinstituts

Ein großes Finanzinstitut mit zahlreichen Altsystemen, das zuvor mit seinem Prozess zur Erstellung von Risiko-, Finanz- und aufsichtsrechtlichen Berichten zu kämpfen hatte, entschied sich für den Einsatz eines Smart Data Fabric, um den Prozess zu automatisieren und zu industrialisieren. Wie bei vielen anderen großen Finanzinstituten machten die vielen Silos des Unternehmens, die die Geschichte der Übernahmen widerspiegeln, und die Komplexität der Betriebsarchitektur einen manuellen Berichtsprozess extrem langsam und komplex. Das Unternehmen erstellte Berichte auf der Grundlage von Daten, die etwa 10 bis 14 Tage alt waren, und war darauf angewiesen, dass die IT-Abteilung Antworten auf Anfragen zu den zugrunde liegenden Daten gab, was zusätzliche Tage oder sogar Wochen in Anspruch nahm. Veraltete Daten in Verbindung mit langsamen Antwortzeiten wirkten sich negativ auf eine Reihe von internen und externen Geschäftsfunktionen aus.

Der Business Case für die Einführung eines intelligenteren Echtzeit-Ansatzes für die Erstellung von Berichten bestand daher darin, Kosten und Risiken zu senken, die Produktivität der Mitarbeiter zu verbessern und den Geschäftsanwendern die Möglichkeit zu geben, Berichte in Eigenregie zu erstellen. Große Finanzinstitute wie die betreffende weltweit tätige Bank stehen zudem unter starkem Druck von Seiten der Aufsichtsbehörden, ihre Risiko- und aufsichtsrechtlichen Berichtsstrukturen zu verbessern. Folglich war auch das Reputationsrisiko, das durch finanzielle Sanktionen entsteht, ein wichtiger Faktor im Entscheidungsprozess.

Integration in die bestehende Systemlandschaft

Zu den Anforderungen der Bank gehörte eine Technologieplattform, die sich leicht in eine Vielzahl unterschiedlicher Systeme integrieren lässt und eine breite Palette von Datentypen unterstützt, einschließlich umfangreicher Transaktionsdaten. In Anbetracht der Tatsache, dass viele ähnliche Unternehmen Programme zur digitalen Transformation durchführen, wird die Vielfalt der Systeme, in die solche Tools integriert werden müssen, in den nächsten Jahren nur noch zunehmen, da der allmähliche Übergang von alten Plattformen zu moderneren Technologien weitergeht.

Der Self-Service-Aspekt im Anforderungskatalog der Bank spiegelt deren Wunsch wider, sich aus der Abhängigkeit von überlastetem IT- und Betriebspersonal zu lösen. Indem den Geschäftsanwendern die Möglichkeit gegeben wird, Risiko- und Finanzdaten direkt abzufragen und Berichte in Eigenregie zu erstellen, können diese Tätigkeiten nicht nur viel schneller durchgeführt werden, sondern erfordern auch viel weniger zusätzliches Personal. Damit die Anwender ein solches Tool bequem nutzen können, musste die Schnittstelle jedoch einfach zu bedienen und aus der Sicht der Geschäftsbenutzer zweckmäßig sein.

Zentralisiertes Datenmanagement vereinfacht Überprüfung der Datenherkunft

Ein weiterer wesentlicher Vorteil der Umstellung von manuellen Prozessen auf ein automatisiertes System besteht darin, dass das Unternehmen eine größere Transparenz in Bezug auf die Herkunft der in seinen Berichten verwendeten Daten hat. Die Datenherkunft ist von einem zentralisierten System aus zugänglich, was den Audit Trail erheblich verbessert und das Datenrisiko verringert. Probleme mit der Datenqualität und -integrität können schneller behoben werden, da die Quellsysteme leicht identifiziert und die zugrunde liegenden Probleme bei Bedarf behoben werden können. Wenn Aufsichtsbehörden oder Kunden anklopfen, um Fragen zu stellen, ist das Unternehmen besser in der Lage, diese Fragen innerhalb des erforderlichen Zeitrahmens zu beantworten.

Aus rein geschäftlicher Sicht können die Entscheidungsträger bei Bedarf auf die benötigten Daten zugreifen und fundierte Entscheidungen auf der Grundlage aktueller Daten, einschließlich Live-Transaktionsdaten, treffen. Latenzzeiten werden minimiert und Risikobewertungen sind aus Markt- und Kundensicht viel genauer. Die Einhaltung von Service Level Agreements (SLAs) ist viel weniger schwierig, und die Berichte sind dann verfügbar, wenn sie von den Kunden benötigt werden.

Data Lakes können moderne Anforderungen nicht bedienen

Viele Unternehmen haben in den letzten zehn Jahren bereits Zeit und Geld in ihre Datenarchitekturen investiert, um ihr Geschäft zu verbessern. Einige Institute haben Data Lakes eingerichtet, um ihre Datenbestände aus dem gesamten Unternehmen zu bündeln. In den meisten Fällen konnten diese zentralisierten Architekturen aber die Erwartungen des Unternehmens nicht ganz erfüllen. Die Daten stehen zwar für grundlegende historische Analysen zur Verfügung, können aber nicht ohne Weiteres manipuliert und aus einer tiefer gehenden analytischen Perspektive abgefragt werden. Data Lakes sind auch oft nicht in der Lage, Echtzeitdatenanalysen in großem Umfang zu unterstützen, so dass eine zusätzliche Schicht über dem Data Lake erforderlich ist, um die Daten zu normalisieren und für den Zweck nutzbar zu machen.

Geschäftsanwender sind bestrebt, das Bestmögliche aus bereits getätigten Investitionen herauszuholen und nicht wieder bei Null anfangen zu müssen. Stellen Sie sich ein Data-Fabric-Schicht wie eine Wasseraufbereitungsanlage vor, die den Schlamm aus dem Data Lake herausfiltert und sicherstellt, dass er von den nachgelagerten Funktionen genutzt werden kann. Wenn ein Geschäftsanwender eine Anfrage von einem Kunden erhält, kann er über das Data Fabric auf die im Data Lake befindlichen Daten zugreifen und komplexe Anfragen in Echtzeit beantworten, unabhängig von der Art der betroffenen Daten. Die Resultate können für Portfolioanalysen, Risikomanagement, Compliance oder andere Geschäftszwecke genutzt werden.

Asset Management kämpft mit ähnlichen Schwierigkeiten

Diese Herausforderungen beschränken sich nicht nur auf den Bankensektor, auch Vermögensverwalter sind daran interessiert, ihre Portfolio-Optimierung, ihr operatives Reporting und ihr Kundenreporting mit sauberen, schnell bereitgestellten Daten besser zu unterstützen. Die Fusions- und Übernahmeaktivitäten innerhalb der Asset-Management-Community waren in den letzten Jahren beträchtlich, was bedeutet, dass viele dieser Unternehmen, ähnlich wie ihre Pendants im Bankensektor, mit schwerfälligen, siloartigen Betriebsarchitekturen zu kämpfen haben. Die Zusammenführung von Daten aus verschiedenen Quellsystemen und die Bereitstellung eines schnellen und einfachen Datenzugriffs für die verschiedenen Geschäfts-, Compliance- und Risikofunktionen, sei es direkt oder durch die Integration in nachgelagerte Systeme, macht auch im Buy-Side-Bereich einen Unterschied.

Keine Technologie kann alle Ihre Geschäftsprobleme lösen, aber sie kann sicherlich helfen, wenn es darum geht, mit dem rasanten Tempo des aktuellen und zukünftigen Marktumfelds umzugehen.


Über die Autorin

Virginie O'Shea ist CEO und Gründerin von Firebrand Research. Als Analystin und Beraterin ist Frau O'Shea auf Kapitalmarkttechnologie spezialisiert und deckt die Bereiche Vermögensverwaltung, internationale Banksysteme, Wertpapierdienstleistungen und globale Finanz-IT ab.

Dieser Blogbeitrag wurde ursprünglich auf Tabb Forum veröffentlicht.