Das Schlimmste der Pandemie ist wohl überstanden. Allerdings wird die Geschäftswelt jetzt mit einer neuen Realität konfrontiert. Das Kundenverhalten hat sich gewandelt, traditionelle Branchen wie Einzelhandel oder Unterhaltungsindustrie befinden sich im Niedergang oder haben sich fundamental verändert, Lieferketten haben neue Wege genommen und vielerorts tun sich neue Chancen für innovative Unternehmen auf.
Eines wird jedoch deutlich: Die neue Realität veranlasst Unternehmen dazu, bisherige Strategien zu hinterfragen, agiler zu werden und auch besser vorausschauen zu können. Nachdem der Fokus der vergangenen Monate auf Resilienz, Cashflow-Management und Arbeitssicherheit lag, steht nun die digitale Transformation wieder hoch im Kurs. Viele Unternehmen sind angespornt durch die Geschwindigkeit, mit der sie während der Pandemie neue Lösungen implementiert und neue Plattformmodelle eingeführt haben.
Das gelang häufig auch durch fortschrittliche Analysen und den Einsatz künstlicher Intelligenz (KI) in Kombination mit Virtualisierung und zunehmender Nutzung der Cloud. Ein positiver Beitrag dieser Transformationen ist allerdings nur möglich, wenn die Qualität des zugrunde liegenden Datenmaterials stimmt. Ohne schnellen Zugriff auf hochwertige Daten schlägt jeder Versuch einer digitalen Innovation fehl.
Mit Beginn der Post-Covid-Ära haben wir drei unserer leitenden Führungskräfte bei InterSystems gefragt, womit wir ihrer Meinung nach in den kommenden zwölf Monaten mit Blick auf Technologie und Datenmanagement rechnen müssen.
Luca Ravazzolo, Product Manager, Cloud
Die Public Cloud wird auch 2021 und darüber hinaus ein zentraler Wachstumsbereich bleiben. Aufgrund von Lockdowns und Arbeitseinschränkungen waren weniger Mitarbeiter im Außendienst unterwegs, um Probleme in Rechenzentren zu beheben oder Unboxing, Verkabelung und andere Aufgaben vor Ort vorzunehmen – alles Tätigkeiten, die in einer Public Cloud entfallen.
Diese Erfahrung hat den Wechsel zur Public Cloud vorangetrieben und Unternehmen haben vermehrt AWS, Azure und Google eingeführt – unterstützt durch Containerisierung und Cloud-native Technologien. Zahlreiche Unternehmensanwendungen, zum Beispiel für Kundenbeziehungsmanagement (Customer Relationship Management, CRM), Ressourcenplanung und Vertrieb, werden zunehmend in die (Public) Cloud verlagert. Unternehmen der Öl- und Gasbranche sowie große Logistikunternehmen nutzen beispielsweise bereits die Vorteile des Cloud-Computing und der enormen Speicherkapazität, und Banken profitieren von der Flexibilität und Skalierbarkeit der Cloud-Dienste für ihre mobilen Anwendungen. Prozessautomatisierung und Remote-Arbeit, die zunehmende Nutzung von Apps zur geschäftlichen Zusammenarbeit und Services wie SASE (Secure Access Service Edge) werden die Einführung der Public Cloud weiter vorantreiben. So können Unternehmen Zeit sparen oder interne technische Wartungsingenieure für höherwertige Tätigkeiten einsetzen.
Die Public Cloud wird auch in Zukunft die steigende Nachfrage nach Services auf Basis von künstlicher Intelligenz und maschinellem Lernen (ML) in Form von Managed Services erfüllen, um Flexibilität und Kostenmanagement zu optimieren und schnellen Zugriff auf die effektivsten Lösungen zu bieten. Dieser Trend zum „Mieten statt kaufen“ wird zunehmen und Unternehmen eine bisher ungekannte Agilität ermöglichen. Oft wird gesagt, Daten seien das neue Öl. Ich bin jedoch der Meinung, dass wir dieses Jahr einen kontinuierlichen Strom an Lösungen sehen werden, die zunehmend auf KI und ML basieren, denn – um Kent Beck zu zitieren – Software liefert keinen Wert außer Laufzeit. Und in diesem Sinne liefern Daten erst dann einen Mehrwert, wenn sie durch KI und ML veredelt werden und so aus dem Rohstoff Daten (Öl) ein nutzbares Gut (Benzin) geworden ist.
Dennoch: Trotz der enormen Kapazitäten und Möglichkeiten, die mit der Public Cloud verfügbar sind, werden sich auch Hybrid-Cloud-Bereitstellungen ausweiten, denn viele Unternehmen möchten vermeiden, dass sie und ihr Business komplett an einen bestimmten Cloud-Service-Anbieter gebunden sind. Darüber hinaus werden zahlreiche Unternehmen ihre sensibelsten oder kritischsten Anwendungen und Daten weiterhin lokal vor Ort bereitstellen wollen.
Joe Lichtenberg, Director of Product and Industry Marketing, Data Platforms
Aussagekräftige Analysen liefern jeder Branche das Potential für Veränderung. Sie generieren erheblichen Wert für Unternehmen, indem sie neue Erkenntnisse liefern, die Entwicklung neuer Services vereinfachen, das Kundenerlebnis verbessern, Prozesse optimieren, Kosten senken und mehr. Analysten verwenden unterschiedliche Namen für die Integration von Analysen in Anwendungen, Prozesse und Workflows (z. B. Operationalisierung von maschinellem Lernen, adaptive Anwendungen usw.). Im Grunde geht es jedoch immer darum, neue Möglichkeiten zu finden, um Daten und Analysen sowohl strategisch als auch operativ (On-demand und in Echtzeit) einzusetzen.
Die Demokratisierung von KI – also die Bereitstellung entsprechender Funktionen für eine breitere Zielgruppe, passiert genau jetzt. Dank vieler neuer Tools, die für ein breiteres Spektrum an Benutzern und Fähigkeiten geeignet sind, werden fortschrittliche Analysen von einer brandneuen Spezialtechnologie zum Mainstream, wovon Unternehmen und deren Kunden gleichermaßen profitieren. Trotz dieser Demokratisierung der KI-Nutzung werden Data-Science-Experten jedoch weiterhin gefragt sein, um komplexere KI-Szenarien abzubilden und vorhandene Modelle zu optimieren.
Ich denke auch, dass wir dieses Jahr einen Anstieg von Daten und Dienstleistungen „as a Service“ sehen werden – verbunden mit dem IT-Trend 2021 „Intelligent Composable Business“ von Gartner. Es ist eine Verschiebung von Investitionskosten hin zu Betriebskosten (vom Kaufen zum Mieten) und zu On-Demand-Services zu beobachten. In Kombination mit Microservices, der Cloud und API-Plattformen wird dieser Trend die bedarfsgerechte Generierung und Nutzung von Daten und Services aufgrund der höheren Benutzerfreundlichkeit, größeren Agilität und besseren Wirtschaftlichkeit beschleunigen. Mit besserer Technologie, einfacherem Zugriff, nutzungsbasierter Preisgestaltung und mehr ist es jetzt für Unternehmen möglich, Innovationen schneller bereitzustellen und ihren Technologie-Stack sowie ihr Kundenangebot zu modernisieren und gleichzeitig die Kosten zu senken – ohne Kompromisse.
Jeff Fried, Director of Product Management, Data Platforms
Ich rechne damit, dass die nächsten Monate weiterhin turbulent bleiben werden, da der Weg durch die Pandemie und die erhoffte wirtschaftliche Erholung in verschiedenen Teilen der Welt ungleich ausfallen werden. Das bringt Herausforderungen in Bezug auf Lieferketten, Nachfrageprognosen und Finanzmarktvolatilität mit sich. Es wird jedoch auch viele Chancen geben.
Telemedizin, Remote-Arbeit, virtuelle Konferenzen und Wachsamkeit in Bezug auf anhaltende Disruptionen (wie Krankheiten, Klimakatastrophen und politische Probleme) werden in Zukunft immer dazugehören, und geschäftliche Resilienz wird wichtiger denn je sein.
Agilität und Automatisierung ermöglichen die Anpassung an sich schnell ändernde Herausforderungen und Bedürfnisse. Auch wenn die Zukunft immer unberechenbar bleiben wird – indem Kunden lernen, schnell neue Lösungen zu implementieren und zu skalieren, können sie ihren Erfolg sichern.
Um die Übergangsphasen und den neuen Normalzustand zu bewältigen, werden immer mehr Daten und Erkenntnisse erforderlich. Eine Optimierung der Datenmanagementfähigkeiten wird also unerlässlich sein. Alt-Systeme sind bereits jetzt häufig überlastet, drohen auszufallen oder gefährden die Agilität. Oft sind diese Strukturen mit der Zeit gewachsen und mittlerweile zu komplex und unflexibel geworden. Unternehmen, die mithalten wollen, müssen also in der Lage sein, sie mit geringem Risiko zu modernisieren und zu vereinfachen. Insbesondere die Finanzdienstleistungsbranche hat während der Pandemie einiges über sich gelernt. Auf Basis dieser neuen Erkenntnisse kann sie ihr Datenmanagement verbessern und gleichzeitig sicherstellen, dass sie über eine robuste Architektur verfügt, die zukünftigen Krisen standhält.