Drei Wege zur Vereinfachung Ihrer Datenarchitektur

Schon vor der Pandemie wünschten sich Entscheidungsträger eine einheitliche Sicht auf präzise und zuverlässige Daten in Echtzeit, damit sie ihren Kunden einen Mehrwert bieten, Risiken reduzieren und schnell und effektiv auf neue Chancen und Herausforderungen reagieren können. Die aktuelle Ausnahmesituation hat diesen Wunsch in vielen Führungsetagen noch einmal deutlich verstärkt, denn es wurde in vielen Bereichen offensichtlich, dass der unternehmensübergreifende Zugriff auf alle relevanten Informationen die unabdingbare Voraussetzung für schnelle Entscheidungsfindungsprozesse und größere Resilienz ist.

Doch das ist für viele Unternehmen alles andere als einfach, da sie im Laufe der Zeit unterschiedliche Technologien implementiert haben, um verschiedene Arten von Daten und Prozessen zu be- und verarbeiten. Entsprechend sehen sich IT-Verantwortliche in diesen Unternehmen mit komplexen IT-Architekturen konfrontiert und müssen mit zahlreichen Systemen, Datenbanken und Services sowie Latenzzeiten beim Datentransfer umgehen.

Eine größere Agilität ist nur realisierbar, wenn zuvor eine Vereinfachung der IT-Architektur erfolgt. Sie reduziert die Kosten, steigert die Leistung und trägt zur Verbesserung der Sicherheit bei. Die gute Nachricht: Dieses Ziel ist für jedes Unternehmen erreichbar. Im Folgenden zeige ich drei Wege auf, die dorthin führen.

Das Multi-Model-System

Der erste Lösungsweg zur Vereinfachung führt über eine reine Multi-Model-Datenbank. Diese ersetzt mehrere für spezifische Zwecke eingesetzte Systeme für das Datenbankmanagement wie etwa Key-Value-, Document- oder Graph-Datenbanken durch eine einzige Repräsentation der Daten auf der Festplatte. Sie ist On-Demand und ohne Datenduplikation zugänglich.

Dieser Multi-Modell-Ansatz ist für viele Geschäftsbereiche nützlich. Im Gastgewerbe beispielsweise ist es nicht unüblich, dass eine einzige Hotelbuchungsanwendung auf bis zu fünf Datenbankmanagementsysteme zugreift, was sich negativ auf die Datenverfügbarkeit auswirkt. Jeder Data Store hat ein eigenes Modell für Scale-out, Last, Disaster Recovery, Verfügbarkeit und Sicherheit, was Datenduplizierung zur Folge haben kann und ein hohes Potenzial für Probleme birgt.

Anwendungen, die auf solchen Systemen aufsetzen, müssen umfangreichen Tests unterzogen werden. Zugleich ist die Wiederverwendung der Daten problematisch. Neben der Notwendigkeit, den Umgang mit mehreren Produkten zu erlernen, binden Fehlersuche und Support wertvolle Arbeitszeit der Mitarbeiter, was die Gesamtbetriebskosten erhöht.

Demgegenüber reduziert eine vereinfachte Hotelbuchungsanwendung die Entwicklungskosten um den Faktor drei. Ein einzelnes Multi-Model-System ist vergleichsweise problemlos zu skalieren und bietet einen einfacheren Zugriff auf Daten aus einem gemeinsamen Pool. Es kann außerdem bei sich ändernden Anforderungen leichter refaktorisiert werden. Darüber hinaus werden systemübergreifende Latenzzeiten beseitigt.

Die translytische Datenplattform

Der zweite Weg zu einer einfacheren Architektur führt über eine transaktional-analytische – oder „translytische“ – Plattform. Dabei werden transaktionale und analytische Datenverwaltungsfunktionen in einer einzigen zusammengefasst. Während ein transaktionales System die Transaktionsverarbeitung optimiert, optimiert ein analytisches System Abfragen und analytische Workloads. Die Bündelung dieser Funktionen in einer gemeinsamen Datenbank-Engine liefert hohe Leistung ohne Abstriche beim Einsatz von Analysen für Echtzeiteinblicke und -aktionen. Ermöglicht wird diese konsolidierte Architektur durch eine fortschrittliche Datenplattformtechnologie, die Latenzzeiten beim Datentransfer zwischen den Systemen eliminiert. Dies erfolgt ohne Einbußen bei Leistung oder Skalierbarkeit, unabhängig vom Typ des Workloads.

Im globalen Finanzdienstleistungssektor ermöglicht der Einsatz einer einzigen translytischen Plattform großen Investmentbanken die Verarbeitung von Milliarden von Trades und Aufträgen pro Tag, während parallel Tausende von gleichzeitigen Anfragen pro Sekunde von Hunderten Anwendungen im gesamten Unternehmen abgewickelt werden. In einem dieser Unternehmen hat sich der Handelsdurchsatz um mehr als das Dreifache erhöht, während sich die Datenerfassung verzehnfacht hat. Durch diesen neuen Ansatz konnten die Betriebskosten um 75 % gesenkt werden – eine in jeder Hinsicht bemerkenswerte Zahl.

Datenbankinternes maschinelles Lernen

Die dritte und jüngste Methode zur Vereinfachung der Architektur ist datenbankinternes maschinelles Lernen (ML). Es macht separate Plattformen für Datenmanagement und Data Science überflüssig und überwindet spielend die sonst häufig auftretenden Schwierigkeiten beim Einsatz einer fortschrittlichen Technologie wie ML. Dazu zählen der allgegenwärtige Mangel an Fachwissen, Fachpersonal sowie Probleme bei der Bereitstellung direkt verwertbarer Daten .

Die Vereinfachung erfolgt hier in Form von AutoML oder IntegratedML, durch die die ML-Technologie direkt in die Datenplattform eingebettet wird. Dadurch werden ML-Modelle leichter zugänglich für Mitarbeiter, die zwar die geschäftlichen Probleme verstehen, aber möglicherweise über keine umfangreichen Data-Science-Kenntnisse verfügen. Aber auch Data Scientists genießen mit AutoML einen weiteren erheblichen Vorteil: Es verschafft ihnen mehr Zeit für produktive Arbeit an höherwertigen Aufgaben wie die Optimierung und Evaluierung von Modellen. Zusätzlich können diese ML-Modelle einfach in Prozesse und Workflows eingebettet werden und ermöglichen so intelligente, datengesteuerte präskriptive Prozesse, die in Echtzeit auf Basis von Ereignissen und Transaktionen ausgeführt werden.

Architektonische Vereinfachung mit sofortiger Wirkung

Egal welche(n) Weg(e) zur Vereinfachung Unternehmen mit komplexen Architekturen durch innovative Datenmanagement-Technologien auch immer beschreiten – sie erzielen damit erhebliche Betriebs- und Kostenvorteile und verschaffen sich die notwendige Agilität, um im dynamischen Marktgeschehen schnell und effizient agieren zu können. Dazu gehören deutlich reduzierte Gesamtbetriebskosten, höhere Leistung und Effizienz sowie die so wichtige Skalierbarkeit und Resilienz. Diese Vorteile stehen unmittelbar zur Verfügung, unabhängig davon, ob das Deployment vor Ort, in der Cloud oder in einer hybriden Umgebung erfolgt.

Wie wir an den Beispielen sehen konnten, sind dank der beschriebenen Innovationen im Datenbankmanagement die althergebrachten Vorstellungen überholt, dass eine Vereinfachung der Datenarchitektur auf Kosten der Leistung gehen muss. Die bislang häufig eingesetzten Mehrpunktlösungen weisen dagegen eine wesentlich höhere Komplexität auf und erhöhen die Gefahr von Datenverlusten, weil Daten zur Erfassung und Analyse zwischen unterschiedlichen Systemen hin und her transferiert werden müssen und demzufolge anfälliger sind. Gerade jetzt ist eine gute Zeit, um sich mit den zahlreichen Vorteilen vertraut zu machen, die eine Vereinfachung der IT-Architektur im Vergleich zum Best-of-Breed-Ansatz hat. Mein Team und ich unterstützen Sie gern dabei.

Um mehr von Jeff über die Vor- und Nachteile und Trends zu hören und sich einen Überblick über Multi-Workload- und Multi-Model-Datenbanken zu verschaffen, hören Sie sich die vollständige Aufzeichnung seines Vortrags auf der IASA-Konferenz (Englisch) an.

Jeff Fried

Jeff Fried, Director of Product Management für InterSystems, ist schon seit langem ein Datenmanagement-Nerd mit einer besonderen Leidenschaft dafür, Menschen bei der Entwicklung leistungsfähiger datengetriebener Anwendungen zu unterstützen. Vor seiner Zeit bei InterSystems wirkte Jeff Fried als CTO für BA Insight, Empirix und Teloquent sowie im Produktmanagement für Microsoft und FAST Search and Transfer. Sein großer Erfahrungsschatz umfasst Data Management, Textanalyse, Enterprise Search und Interoperabilität. Jeff Fried besitzt 15 Patente und tritt regelmäßig als Redner und Autor in Erscheinung. So hat er bislang mehr als 50 technische Abhandlungen veröffentlicht und als Co-Autor an drei technischen Büchern mitgewirkt.

Kommentar verfassen

*