Datenmanagement: Fünf Prognosen für 2019

2019 verspricht ein herausragendes Jahr für die Datenmanagement Branche zu werden. Auch wenn ich nicht in eine Glaskugel schauen kann, möchte ich doch ein paar Prognosen für das Datenmanagement im Jahr 2019 tätigen.

Prognose 1: Künstliche Intelligenz trifft auf Governance – An Diskussionen zu den Themen Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) hat es in den letzten Jahren nicht gemangelt. KI und ML werden ziemlich hochgejubelt, bieten aber auch echtes Potenzial und eröffnen Vorteile und Einsatzmöglichkeiten in vielen verschiedenen Bereichen. Dennoch stehen wir noch ziemlich am Anfang: In einer Studie aus dem Jahr 2018 untersuchte McKinsey 160 Anwendungsfälle von KI und stellte fest, dass nur bei 12 Prozent davon die experimentelle Phase bereits abgeschlossen war.

Maschinelles Lernen findet Anwendung in den Bereichen Governance, Risikomanagement und Compliance (GRC), wobei es den ML-Anwendungen selbst ironischerweise häufig an Governance fehlt. Die von der Datenschutz-Grundverordnung (DSGVO) der Europäischen Union geforderte „Erklärbarkeit“ schränkt beispielsweise die Art der einsetzbaren ML-Algorithmen ein. Ein weiteres Spannungsfeld betrifft den Zugriff auf Daten – die Kronjuwelen einer jeden Organisation – für ML-Zwecke, was oftmals in einer Sackgasse zwischen Datenwissenschaftlern und IT-Teams endet: Erstere möchten uneingeschränkten Zugriff auf alle Daten, letztere müssen für die Einhaltung von Datenschutz- und Sicherheitsregulierungen sorgen. Für 2019 erwarte ich eine Zuspitzung dieser Situation. Immer mehr Unternehmen werden das Problem erkennen und nach Lösungen suchen, um sowohl für die Sicherheit und Compliance ihrer Daten zu sorgen als auch Datenwissenschaftlern angemessenen Zugriff zu gewähren.

Prognose 2: Plattformen für Unternehmensdaten erhalten Aufwind – Mit dem Aufkommen von Data Lakes seit 2010 forcierten viele Unternehmen die Implementierung von Data-Lake-Technologien, meistens basierend auf Hadoop. Das Bestreben war es, einen einheitlichen Datenzugriff für die gesamte Organisation zu ermöglichen und konventionelle Firmen in moderne datengetriebene Unternehmen zu verwandeln. Die Realität war jedoch weit von dieser Vision entfernt und es kam zu einer regelrechten Schwemme an Data Lake-Projekten, die in „Daten-Sümpfen“ endeten.

Im Laufe des letzten Jahres habe ich eine Verlagerung des Fokus auf herkömmliche Herausforderungen wie Datenintegrität und die schnelle Entwicklung von datenintensiven Anwendungen festgestellt. Gleichzeitig tauchte auch ein neuer Begriff auf: Plattform für Unternehmensdaten (Enterprise Data Platform, EDP). Ich gehe davon aus, dass sich EDP in diesem Jahr als Standardbegriff durchsetzen und immer mehr Unternehmen diesen Ansatz verfolgen werden, um ihre digitale Transformation anzukurbeln.

Im Dezember 2018 veröffentlichte IDC einen Bericht über das Aufkommen von Plattformen für Unternehmensdaten. „Die [EDP-]Technologie ermöglicht es Anwendern, Daten dort zu finden und zu nutzen, wo sie sich befinden, soweit es Sinn macht sie zu kombinieren, auszuwerten und ihre Bedeutung aufzuzeichnen. Darüber hinaus lassen sich häufigere und bessere Analysen durchführen und, in einigen Fällen, datengetriebene Vorgänge basierend auf den Daten auf der Plattform durchführen”, so Carl Olofson, Research Vice President für Data Management Software bei IDC. „Der daraus entstehende Mehrwert umfasst schnellere Einblicke, fundiertere Geschäftsentscheidungen, bessere Daten zur Unterstützung von KI/ML-Aktionen (künstliche Intelligenz/maschinelles Lernen) und ein agileres Unternehmen.“

Prognose 3: Trend zur Vermenschlichung von Daten nimmt Fahrt auf – Ich gehe davon aus, dass die „Vermenschlichung von Daten“ mindestens 20 Prozent der Datenmanagement-Initiativen im Jahr 2019 ausmachen wird.

Dieser Trend ist nicht einfach nur eine Gegenreaktion auf die unpersönlichen und undurchsichtigen Analysen, die oftmals negative geschäftliche und soziale Auswirkungen mit sich bringen, wie so gut im Buch „Weapons of Math Destruction“ beschrieben. Die Vermenschlichung von Daten erfordert das Hinzufügen von Kontexten, einen einfachen Zugriff und die Erkenntnis, dass zur Auswertung von Daten eine menschliche Komponente erforderlich ist.

Diese Denkweise bringt viel Gutes mit sich:

  • Die Berücksichtigung von Datenqualität sowie auch Datenmenge führt zu besseren Ergebnissen, fundierteren Entscheidungen und weniger unbewusster Voreingenommenheit.
  • Je mehr Daten über einzelne Kunden erfasst werden, desto vollständiger ist das Gesamtbild, sodass sich Dienstleistungen und Produkte in bislang ungekanntem Maß individualisieren lassen.
  • Indem Daten dank intuitiver Tools für ein breiteres Publikum zugänglich werden, kommen Know-how und gesunder Menschenverstand zur Geltung.

Durch diesen Trend werden aber auch höhere Anforderungen in Bezug auf Know-how und Sensibilität bei Datenanalysen gesetzt. Für Unternehmen, die bereits einen Chief Data Officer, eine Datenplattformstrategie und erweiterte Analysefunktionalität haben, ist die Vermenschlichung von Daten möglicherweise der natürliche nächste Schritt. Doch für Unternehmen, die gerade erst die erste Stufe der Datenleiter erklommen haben, kann es entmutigend sein, wenn ihre Projekte durch die Vermenschlichung von Daten noch komplexer und unschärfer werden.
Informationsmanagement nimmt durch Initiativen zur Vermenschlichung von Daten neue Formen an. Um Kontexte einbeziehen zu können, sind verwandte Daten erforderlich, die wiederum oftmals unterschiedliche Datenstrukturen oder einen modellübergreifenden Datenmanagementansatz erfordern. Damit große Datenmengen intuitiv durchsucht und ausgewertet werden können, sind leistungsstarke Datenplattformen sowie eine Vielzahl von Funktionen für Datenvisualisierung und -analyse erforderlich, die für die gleichen Daten ausgeführt werden. Die Bewertung der Datenqualität ist einfacher, wenn Sie eine gute Kontrolle über die Quellen, Verarbeitungspipelines und den Speicherort der Daten haben; oftmals müssen große Mengen an Altdaten abgefragt werden, um eine vollständige Ansicht zu erhalten.

Prognose 4: DataOps überholt ETL
Der Begriff „DataOps“ ist noch keine fünf Jahre alt und schon allgemein anerkannt. Falls Sie noch nicht davon gehört haben: DataOps ist ein Ansatz, der sich auf den gesamten Datenlebenszyklus bezieht und die Herangehensweise und die Techniken von DevOps, agiler Softwareentwicklung und statistischer Prozesskontrolle zur Datenanalyse nutzt.

Der Begriff „DataOps“ wurde 2018 erstmals im Gartner Hype Cycle für Datenmanagement erwähnt. Für 2019 gehe ich davon aus, dass DataOps-Praktiken eine größere Rolle im Datenmanagement von Unternehmen spielen werden als die herkömmliche ETL-Methode (Extract, Transform and Load).

Auch wenn DataOps von einigen als Ausdehnung von ETL gesehen wird, betrachte ich es als völlig neues Konzept der Datenintegration, das wesentlich agiler und integrierter ist als ETL. ETL ist eine batchorientierte Methode mit komplexer Entwicklung und Verwaltung, die bestimmten Anbietern von Datenintegration vorbehalten ist. Bei der DataOps-Methode kann die Integration von Batch- und Echtzeitdaten über die gleiche Entwicklungsplattform und die gleiche Computing- und Datenbankinfrastruktur erfolgen.

Prognose 5: Ausbreitung von Datenbanken führt zur Anerkennung von Multi-Model
Seit der Einführung von NoSQL-Datenbanken vor über zehn Jahren ist die Anzahl der verwendeten Datenmodelle kontinuierlich gewachsen. Häufig stoße ich auf Anwendungen, die mehrere unterschiedliche Datenspeicher mit fünf oder sechs unterschiedlichen Modellen in fünf oder sechs unterschiedlichen Produkten verwenden. Hierdurch entstehen nicht nur zusätzliche Kosten und Komplexität. Das Risiko von Dateninkonsistenz aufgrund doppelter Daten, die über verschiedene Produkte hinweg unvollständig synchronisiert werden, steigt ebenfalls.

Multi-Model-Datenbanken sind eine attraktive Option für Unternehmen, die zwei oder mehrere unterschiedliche Arten von Datenmodellen in der gleichen Anwendung unterstützen möchten. Eine Multi-Model-Datenbank bietet diverse Vorteile gegenüber dem „Polyglot Persistence“-Ansatz, bei dem mehrere Produkte kombiniert werden: die Einfachheit und niedrigeren Kosten eines Einzelprodukts, frühere Marktreife und niedrigere Kosten für Entwicklung, Wartung und Support.

Ich gehe davon aus, dass Multi-Model-Datenbanken im Verlauf dieses Jahres von allen wichtigen Analysten als Kategorie anerkannt werden. Denn wenn immer mehr unterschiedliche Datenbanken benötigt werden, um die anstehenden Aufgaben zu lösen, ist Abhilfe dringend geboten.

Bitteschön: fünf Prognosen, auf die Sie mich festnageln können. Ich melde mich in einem Jahr wieder.

Jeff Fried

Jeff Fried, Director of Product Management für InterSystems, ist schon seit langem ein Datenmanagement-Nerd mit einer besonderen Leidenschaft dafür, Menschen bei der Entwicklung leistungsfähiger datengetriebener Anwendungen zu unterstützen. Vor seiner Zeit bei InterSystems wirkte Jeff Fried als CTO für BA Insight, Empirix und Teloquent sowie im Produktmanagement für Microsoft und FAST Search and Transfer. Sein großer Erfahrungsschatz umfasst Data Management, Textanalyse, Enterprise Search und Interoperabilität. Jeff Fried besitzt 15 Patente und tritt regelmäßig als Redner und Autor in Erscheinung. So hat er bislang mehr als 50 technische Abhandlungen veröffentlicht und als Co-Autor an drei technischen Büchern mitgewirkt.

Kommentar verfassen

*