Das optimale Fundament für künstliche Intelligenz und maschinelles Lernen

Anfang des vergangenen Jahres bezeichnete Sundar Pichai, CEO von Google, künstliche Intelligenz als eine der wichtigsten Entwicklungen der Menschheit, tiefgreifender noch als Feuer oder Elektrizität. Noch lässt sich nicht abschätzen, ob diese kühne Einschätzung wirklich zutreffen wird. Unstrittig ist aber, dass wir am Beginn eines fundamentalen Wandels stehen. Künstliche Intelligenz wird die Wertschöpfung aus unseren Daten revolutionieren und dabei weit mehr ermöglichen als simple Automatisierung oder Beschleunigung.

Davon gehen nicht nur die Analysten von PwC aus, die das Potenzial von KI für das deutsche BIP in einer aktuellen Studie auf insgesamt 430 Milliarden Euro bis 2030 beziffern. Auch eine Untersuchung des McKinsey Global Institutes sagt künstlicher Intelligenz eine größere ökonomische Bedeutung voraus als der Einführung der Dampfmaschine oder gar der Informations- und Telekommunikationstechnik insgesamt – und prognostiziert eine zusätzliche globale Wertschöpfung von 13 Billionen Dollar bis 2030. Dieses Potenzial ist auch der Mehrheit der deutschen Unternehmen nicht verborgen geblieben. Von 350 in einer Studie von IDC befragten Unternehmen gaben immerhin 69 Prozent an, innerhalb der nächsten 12 Monate ein neues KI-Projekt umsetzen zu wollen. Und 78 Prozent der Digitalunternehmen, die der Bundesverband Digitale Wirtschaft befragte, sagten, künstliche Intelligenz sei bereits heute „wichtig“ oder „eher wichtig“ für ihr Geschäftsmodell. Die ökonomische Bedeutung von KI ist demnach nicht nur eine Zukunftsvision. Sie ist in der Realität vieler Unternehmen bereits angekommen. So intensivieren viele Firmen Ihre Bemühungen, maschinelles Lernen operativ umzusetzen, sei es, um Betrugsversuche im Onlinehandel zu erkennen, den Aktienhandel zu optimieren oder autonome Fahrzeuge zu entwickeln. Das optimale Fundament für künstliche Intelligenz und maschinelles LernenMaschinelles Lernen ist ein KI-Anwendungsbereich, bei dem künstliche Systeme „aus Erfahrung“ lernen, in dem sie möglichst viele Anwendungsbeispiele auf Gesetzmäßigkeiten und Muster untersuchen und daraus Verallgemeinerungen ableiten.

Die Voraussetzungen für KI sind endlich erfüllt

Aber weshalb nimmt diese Entwicklung gerade jetzt richtig Fahrt auf? Schließlich wird in der IT-Branche schon seit Jahren intensiv über KI geforscht und diskutiert. Bislang fehlte es aber an einigen entscheidenden Voraussetzungen, die erst seit Kurzem erfüllt sind. Dabei ist zunächst die Menge und Qualität der zur Verfügung stehenden Daten zu nennen, die in adäquatem Maße gewährleistet sein müssen. Für deren Auswertung ist wiederum geeignete Hard- und Software für modernes Datenmanagement notwendig.

Beide Vorrausetzungen sind mittlerweile erfüllt: Einerseits wächst mit jedem Tag die Menge an verfügbaren Daten, die ausgewertet und nutzbar gemacht werden müssen. Im Gesundheitswesen werden Patientenakten digital, die medizinische Bildgebung ist es bereits. Das ist in zweierlei Hinsicht entscheidend: Erstens benötigt künstliche Intelligenz diese Masse an Datensätzen, um zu lernen. Egal, welche Aufgabe KI erfüllen soll, gute Daten und der Zugriff darauf sind unverzichtbar. Je mehr Daten ihr dafür zur Verfügung stehen, desto besser und damit nützlicher wird sie. Zweitens steigt mit der Menge und Qualität der Daten auch der Anreiz, sie ökonomisch zu verwerten, und KI ist das vielversprechendste Werkzeug hierfür – womit Investitionen in die weitere Forschung und Entwicklung attraktiv werden.

Andererseits verfügen wir inzwischen über die notwendigen Technologien, um auch komplexe KI-Anwendungen zu realisieren. Die Fortschritte der vergangenen Jahre in Hinblick auf Rechenleistung, Speicherkapazitäten und die jeweils damit verbundenen Kosten waren immens. Allein von 2012 bis 2017 hat sich die Rechenleistung in großen KI-Projekten nach einer Analyse von OpenAI im Schnitt alle dreieinhalb Monate verdoppelt.

Dennoch steht KI immer noch am Anfang und das stellt Unternehmen vor ein schwerwiegendes Dilemma. Sie müssen nicht nur entscheiden, ob und wann sie die Aufgabe angehen, sondern auch, welchen Ansatz sie dabei verfolgen wollen. Klar ist aber auch: Wer jetzt nicht handelt, riskiert, abgehängt zu werden und im schlimmsten Fall überhaupt nicht von den neuen Möglichkeiten zu profitieren. Gleichzeitig steht die wirtschaftliche Nutzung von KI ungeachtet aller Fortschritte erst am Anfang. Wir können noch nicht mit Sicherheit sagen, welcher der verschiedenen Ansätze innerhalb der KI für ein bestimmtes Vorhaben langfristig den größten Erfolg verspricht. Was also tun? Statt abzuwarten, wohin die Zukunft der KI führt, sollten Unternehmen spätestens jetzt damit beginnen, die Basis für ihre Nutzung zu legen und mögliche Einsatzgebiete in ihrem Betrieb zu identifizieren, womöglich sogar die Entwicklung erster eigener Anwendungen in Angriff zu nehmen. Und das bedeutet auch, ihre Daten als das zu sehen, was sie sind: eine ihrer wichtigsten Ressourcen und unabdingbare Grundlage für Innovation und Fortschritt.

Künstliche Intelligenz benötigt saubere Daten

Wir bei InterSystems unterstützen Unternehmen aus allen Branchen dabei, diese Ressource für sie optimal nutzbar zu machen, denn saubere, normalisierte Daten sind die Grundvoraussetzung für künstliche Intelligenz und maschinelles Lernen. Deshalb haben wir InterSystems IRIS und InterSystems IRIS for Health entwickelt, extrem leistungsstarke Datenplattformen, die es Unternehmen ermöglicht den Zugriff auf ihre Daten und die Entwicklung datenintensiver Anwendungen so einfach wie möglich zu gestalten.

Es gibt mehrere Besonderheiten, die unsere Plattformen für die Entwicklung von KI- und Machine-Learning-Anwendungen prädestinieren. Eine davon ist die Anbindung an Apache Spark. Data Scientists und Entwickler im Bereich von maschinellem Lernen nutzen Tools wie TensorFlow, um Anwendungen zu programmieren, und diese wiederum nutzen Apache Spark als Framework für ihren Datenzugriff. Mit dem Spark-Connector schaffen wir eine direkte Anbindung von InterSystems IRIS oder IRIS for Health an Apache Spark und machen unsere Plattformen zu Datenquellen für das Framework. Alle Daten, die unsere Kunden in InterSystems IRIS oder IRIS for Health zusammenführen, stehen ihnen so automatisch auch in Apache Spark zur Verfügung – ganz ohne die Datensätze mühevoll manuell einzuspeisen.

Ein anderer Punkt, der über den Erfolg einer datenintensiven Anwendung entscheidet, ist der Grad ihrer Interoperabilität. Damit ist ihre Fähigkeit gemeint, mit anderen, gegebenenfalls unbekannten Anwendungen und Systemen zu kommunizieren und nahtlos zusammenzuarbeiten. Wenn Daten aus immer mehr unterschiedlichen Quellen kommen, benötigen wir ein umso höheres Maß an semantischer, syntaktischer und struktureller Interoperabilität, um alle diese Quellen nutzen und Daten format- und systemübergreifend an einem einzigen Ort zusammenführen zu können. Durch die hochentwickelte Interoperabilitäts-Engine von InterSystems IRIS ist genau das möglich. Mit IRIS for Health, der ersten Datenplattform weltweit, die explizit dafür geschaffen wurde, den größtmöglichen Nutzen aus der Verarbeitung medizinischer Daten zu ziehen, gehen wir noch einen Schritt weiter. IRIS for Health unterstützt alle internationalen Standards für Interoperabilität im Gesundheitswesen wie HL7, FHIR und IHE, um die Grenzen zwischen den Systemen aufzuheben. Damit wird ein Maximum an Daten nutzbar, was uns zu einem weiteren entscheidenden Merkmal bringt: Unsere Datenplattform ist, wie ESG in ausführlichen Tests feststellte, in der Lage, enorme Datenvolumen zu verarbeiten, ohne an Leistung einzubüßen.

Alle drei Faktoren – die Anbindung an Apache Spark, unsere einzigartige Interoperabilitäts-Engine und die starke Leistungsfähigkeit auch bei hohen Lasten – machen unsere Datenplattformen zum Schlüssel für den Einsatz von künstlicher Intelligenz und maschinellem Lernen. Je früher Unternehmen damit beginnen, die Grundlage hierfür zu schaffen und ihre Daten effizient zu sammeln und zu verwerten, desto eher werden sie künftige Entwicklungen zu ihrem Vorteil nutzen können.

Don Woodlock

Don Woodlock stieß 2017 zu InterSystems, wo er seitdem für HealthShare verantwortlich zeichnet. HealthShare ist eine umfassende Produktfamilie, die durch weitreichenden Datenaustausch das Gesundheitswesen revolutionieren möchte. In dieser Position treibt Woodlock die Vision von HealthShare voran, um in der Branche in Sachen Qualität, Datenverfügbarkeit und Effizienz neue Maßstäbe zu setzen.

Vor seiner Zeit bei InterSystems fungierte Woodlock als Vice President und Geschäftsführer der Enterprise Imaging Division von GE Healthcare. Woodlock verfügt über knapp 30 Jahre Erfahrung im Bereich der Gesundheitsinformatik. Seine berufliche Laufbahn nahm bei IDX Systems ihren Anfang, anschließend verbrachte er 15 Jahre bei General Electric. Dort beaufsichtigte er mehrere Geschäftsbereiche von GE Healthcare und sorgte für die erfolgreiche Integration eingekaufter Unternehmen und Technologien.

Woodlock besitzt einen Bachelor of Science in Elektrotechnik vom renommierten Massachusetts Institute of Technology.

Kommentar verfassen

*