Die Diskussion rund um Performance, Skalierbarkeit und Kosten in datengetriebenen IT-Architekturen wird seit Jahren von einem zentralen Problem geprägt: Daten bewegen sich zu häufig durch zu viele Schichten. Klassische, compute-zentrische Ansätze, bei denen Anwendungen Daten aus unterschiedlichen Systemen abrufen, transformieren und anschließend wieder zurückschreiben, führen zu unnötigen Latenzen, steigenden Infrastrukturkosten und hoher operativer Komplexität.
In Gesprächen mit Kunden sehe auch ich dieses Muster immer wieder: Hochperformante Rechenressourcen stehen bereit, doch die eigentliche Bremse liegt nicht im Compute selbst, sondern in der ständigen Bewegung und Duplizierung von Daten. Jede zusätzliche Schicht, jede Pipeline und jede Kopie erhöht nicht nur die Latenz, sondern auch die Fehleranfälligkeit und den Betriebsaufwand.
Angesichts wachsender Echtzeitanforderungen, KI-gestützter Anwendungsfälle und kontinuierlich steigender Cloud-Kosten wird immer deutlicher, dass dieser Ansatz strukturell an seine Grenzen stößt. Datenintensive Workloads lassen sich nicht beliebig skalieren, wenn die zugrunde liegende Architektur selbst ineffizient ist.
Für mich ist Data-Centric Computing die architektonische Antwort auf genau dieses Problem. Anstatt Rechenlogik über verteilte Systemlandschaften zu streuen, findet die Verarbeitung konsequent dort statt, wo die Daten bereits liegen. Das reduziert Datenbewegung, erhöht die Performance und sorgt für eine deutlich effizientere Nutzung der verfügbaren Ressourcen.
Die Forderung, klassische compute-zentrierte Architekturen hinter sich zu lassen und stärker data-zentrierte Ansätze zu verfolgen, wird auch von Experten aus Forschung und Industrie zunehmend unterstützt. So ermutigt Reetuparna Das, Associate Professor an der University of Michigan, in einem Interview mit dem europäischen Exzellenznetzwerk HiPEAC die nachwachsende Generation von Computerarchitekten zum Paradigmenwechsel: „Move to data-centric architectures and leave behind compute-centric designs.“
Warum Data-Centric Compute architektonisch überlegen ist
Ein konsequent datenzentrierter Architekturansatz folgt klaren Prinzipien, die nur in ihrer Gesamtheit ihre volle Wirkung entfalten. Entscheidend ist nicht ein einzelnes Feature, sondern die Konsequenz, mit der Daten und Rechenlogik zusammengeführt werden.
Zentrale Merkmale von Data-Centric Computing sind:
- die konsequente Minimierung von Datenbewegung zwischen Speicher-, Analyse- und Applikationsschichten
- die Zusammenführung von Transaktion, Analyse und KI auf einer gemeinsamen, konsistenten Datenbasis
- In-Memory-Verarbeitung für extrem niedrige Latenzen und unmittelbare Reaktionsfähigkeit
- kohärente Datenmodelle, die operative und analytische Workloads gleichermaßen unterstützen
- Skalierbarkeit ohne architektonische Brüche oder zusätzliche Komplexitätsschichten
Viele moderne Plattformen adressieren diese Anforderungen lediglich punktuell – etwa über separate Analytics-Engines, zusätzliche Caching-Schichten oder spezialisierte KI-Services. In der Praxis entstehen so fragmentierte Architekturen, die zwar einzelne Probleme lösen, insgesamt jedoch schwer zu betreiben und noch schwerer konsistent zu halten sind.
Aus zahlreichen Kundenprojekten weiß ich: Nicht einzelne Komponenten entscheiden über den Erfolg einer Architektur, sondern die Konsequenz, mit der sie als integriertes Ganzes gedacht und umgesetzt wird.
Wie InterSystems IRIS Data-Centric Computing konsequent umsetzt
InterSystems IRIS ist von Grund auf für dieses Paradigma konzipiert. Data-Centric Computing ist hier keine nachträgliche Erweiterung, sondern ein durchgängiges architektonisches Grundprinzip.
Rechen- und Business-Logik wird dort ausgeführt, wo die Daten gespeichert sind – unabhängig davon, ob es sich um relationale, objektbasierte, hierarchische oder semistrukturierte Daten handelt. Stored Procedures, integrierte Analysefunktionen, KI-Workflows und Datenservices greifen direkt auf dieselbe Datenbasis zu, ohne Kopien, Replikation oder komplexe Synchronisationsmechanismen.
Bei unseren Projekten sehen wir immer wieder, wie stark sich allein dadurch die End-to-End-Latenz reduziert. Gleichzeitig verschwinden viele klassische Performance-Engpässe verteilter Architekturen, die zuvor nur mit zusätzlicher Hardware oder aufwendigen Workarounds kompensiert werden konnten.
Transaktion, Analyse und KI in einer einzigen Plattform
Ein zentrales Alleinstellungsmerkmal von InterSystems IRIS ist die nahtlose Verschmelzung von OLTP, OLAP und Advanced Analytics innerhalb einer einzigen Engine. Operative Prozesse, Echtzeitanalysen und Machine-Learning-Anwendungen arbeiten parallel – auf denselben, stets aktuellen Daten.
Für mich ist genau diese architektonische Geschlossenheit der entscheidende Unterschied: Transaktion, Analyse und KI greifen auf dieselbe Datenbasis zu – ohne Pipelines, ohne Zeitverzug, ohne strukturelle Brüche.
Warum Data-Centric Computing Performance UND Kosten adressiert
Durch die Kombination aus In-Memory-Technologien, intelligenter Indizierung und konsequent optimierter Datenlokalität erzielt InterSystems IRIS eine außergewöhnlich hohe Performance – in der Regel mit deutlich weniger Hardware als vergleichbare Architekturen.
Aus meiner Sicht liegt der wirtschaftliche Mehrwert von Data-Centric Computing mit InterSystems IRIS genau darin: Rechenlogik wird direkt an den Daten ausgeführt, Datenbewegung minimiert, Ressourcen effizienter genutzt und die Gesamtbetriebskosten nachhaltig gesenkt.
Einheitliches Datenmodell für maximale Flexibilität
InterSystems IRIS unterstützt mehrere Datenmodelle gleichzeitig – darunter SQL, Objektmodelle, JSON und Key-Value – ohne Daten zu duplizieren. Anwendungen können exakt das Modell nutzen, das für ihren jeweiligen Use Case optimal ist.
Diese Flexibilität ist ein zentraler Enabler für Data-Centric Computing in heterogenen IT-Landschaften. Das ist besonders wichtig für Unternehmen, die bestehende Anwendungen modernisieren möchten, ohne alles neu entwickeln zu müssen.
Echtzeit-Interoperabilität als integraler Bestandteil
Für mich endet Data-Centric Computing nicht an der Systemgrenze. InterSystems IRIS integriert leistungsfähige Interoperabilitätsfunktionen, mit denen sich Datenströme in Echtzeit erfassen, anreichern und direkt weiterverarbeiten lassen – ohne Umwege über externe Systeme oder zusätzliche Middleware.
In der Praxis zeigt sich, dass genau diese Fähigkeit entscheidend ist, um operative Systeme, Analytics und KI nicht nur anzubinden, sondern als durchgängige, datengetriebene Architektur zu betreiben.
Fazit: Data-Centric Computing als strategischer Architekturansatz
Data-Centric Computing ist kein kurzfristiger Technologietrend, sondern eine notwendige Antwort auf die wachsenden Anforderungen datenintensiver Geschäftsmodelle. Unternehmen, die Performance, Skalierbarkeit und Kosten nachhaltig optimieren wollen, müssen Rechenlogik und Daten enger zusammenführen.
InterSystems IRIS bietet hierfür eine ausgereifte, praxisbewährte Plattform, die Data-Centric Computing nicht nur unterstützt, sondern konsequent umsetzt – performant, integriert und zukunftssicher.
Oder anders formuliert, basierend auf vielen Jahren Projekterfahrung: Wenn Daten wirklich zum Zentrum der Architektur werden, wird IT wieder beherrschbar.
Wer diesen Gedanken weiter vertiefen möchte, findet im
Webinar meiner Kollegen konkrete Ansatzpunkte, wie sich Performance auch jenseits der reinen Architekturentscheidung weiter steigern lässt.






























