Skip to content
Suchen Sie nach Produkten und Lösungen von InterSystems, Karrieremöglichkeiten und mehr.

Die richtigen Grundlagen für Data Mining und Predictive Analytics schaffen

Jedes Ereignis erzeugt Daten. Das gilt für den Betrieb einer Maschine in der Fertigung ebenso wie für die medizinische Untersuchung eines Patienten. Nicht immer werden diese Daten allerdings auch erfasst – und selbst wenn sie es werden, ist es noch ein weiter Weg, sie tatsächlich nutzbar zu machen.

Data Mining und Predictive Analytics gewinnen durch die zunehmende Digitalisierung über alle Branchen hinweg rasant an Bedeutung. Der Nutzen, den Experten bei einem umfassenden Einsatz dieser Technologien vorhersagen, ist immens und reicht von Verbesserungen des Produktdesigns und der Usability bis hin zur Entwicklung vollkommen neuartiger Geschäftsmodelle. Voraussetzung dafür und für jede andere Form der Datennutzung ist die Erfassung und Bündelung der Daten in einer Datenbank. Doch allein das macht Daten noch nicht nutzbar. Angesichts fehlender definierter Standards ist die Analyse der Daten in Form von Data Mining – also die Anwendung statistischer Methoden auf große Datenmengen, um gültige und potenziell nützliche Muster zu erkennen – und Predictive Analytics zur Vorhersage von zukünftigen Ereignissen noch immer eine Herausforderung.

In vielen Unternehmen ist die maschinelle Vernetzung bereits weit vorangeschritten, wird aber permanent ergänzt durch die Einbindung neuer Geräte und Sensoren. In den kommenden Jahren wird sie weiter zunehmen. Denn je größer die Menge der Daten ist, desto belastbarer sind die Ergebnisse ihrer Analyse. Um diese Datenmengen zu erzeugen, braucht es Geräte, die jegliche Daten, die sie durch Eingabegeräte, Sensoren oder auf anderem Wege erzeugen, unmittelbar und automatisch an eine Datenbank weiterleiten. Die Verarbeitung wird erschwert, wenn unterschiedliche Geräte unterschiedliche Datenstrukturen verwenden, was gelegentlich sogar bei Geräten desselben Herstellers der Fall ist. Das Gleiche gilt für manuell erfasste, handschriftliche oder unstrukturierte Daten. Jeder Datensatz, der nicht der üblichen Norm entspricht, erhöht die Anforderungen an die Algorithmen, die die Daten analysieren.

Eine leistungsfähige Lösung muss all diese heterogenen Datensätze gleichermaßen verarbeiten können. Dies wiederum setzt voraus, dass diese Lösung auf die individuellen Gegebenheiten, Ziele und Erfordernisse des Unternehmens abgestimmt und in der Lage ist, sich durch maschinelles Lernen auch an sich verändernde Bedingungen anzupassen. Der Einsatz von Open-Source-Technologien oder auch die Kombination verschiedener Einzellösungen, die nicht darauf ausgelegt sind, miteinander kombiniert zu werden, wirkt auf den ersten Blick günstig in den Anschaffungskosten. Die ursprünglich gesparten Kosten schlagen jedoch mit höheren Wartungskosten schnell ins Gegenteil um, zumal auch berücksichtigt werden muss, ob ein langfristiger Produkt-Support gewährleistet werden kann.

Um eine Lösung zu entwickeln, welche die spezifischen Anforderungen des Unternehmens erfüllt, enorme Datenmengen aus unterschiedlichen Quellen und in unterschiedlichen Formaten ohne zeitliche Einbußen verarbeitet und auch bei schwankenden Workloads uneingeschränkt leistungsstark bleibt, braucht es vor allem Folgendes: langjähriges Branchenwissen, eine zukunftsfähige Herangehensweise auch bei außergewöhnlichen Herausforderungen, die richtigen Experten aus Mathematik und Softwareentwicklung – und eine homogene Plattform als Basis für die Speicherung, Verarbeitung und Nutzung der Daten. Auch muss der Zugang zu den Daten über unterschiedliche Unternehmensbereiche und Abteilungen hinweg gewährleistet sein, denn eine isolierte Betrachtung steht einem echten, nachhaltigen Erfolg von Data Mining im Weg. Es genügt nicht, die richtigen Schlüsse aus den vorhandenen Daten zu ziehen; sie müssen auch an die richtigen Stellen gelangen. Dann ist ihr Nutzen erheblich.

 

 

RELATED TOPICS