Firmen im Artikel
Für die Datenanalyse gibt es künftig ein riesiges Potenzial, aber auch Herausforderungen. Gefragt sind kognitive und schnelle Lösungen sowie die Integration von Datenschutz. ❧ Markus Strehlitz
Big Data ist schon seit einiger Zeit in aller Munde. Doch erst in Kombination mit dem aktuell wichtigsten Trend im IT-Bereich zeigt sich das ganze Potenzial, das die Analyse von großen Datenmengen bietet. Das Internet der Dinge (IoT) eröffnet große Möglichkeiten für Big Data. Der Ausfall von Fertigungsmaschinen lässt sich frühzeitig prognostizieren, Verkehrsströme können intelligent gesteuert werden, die Verteilung von Energie passt sich stets an den aktuellen Bedarf an – so die Versprechungen der Anbieter von Big-Data-Lösungen.
Daraus ergeben sich auch neue Geschäftsmodelle: Maschinenbauer verkaufen ihre Produkte nicht mehr, sondern vermieten sie im Rahmen von Service-Angeboten. Auto-Versicherungen analysieren Daten aus den Fahrzeugen, um auf dieser Basis für jeden Kunden einen individuellen Tarif zu erstellen.
Doch bevor diese neuen Möglichkeiten ausgeschöpft werden können, sind noch technische Herausforderungen zu bewältigen. Wer mithilfe von Datenanalyse zum Beispiel seine Produktion steuern oder Autos autonom durch die Straßen fahren lassen möchte, braucht die Ergebnisse sofort, um möglichst schnell reagieren zu können. „Die Daten aus Produktionsmaschinen oder vernetzten Fahrzeugen setzen häufig voraus, dass sie in Echtzeit ausgewertet werden können“, sagt Daniel Jeffrey Koch, Leiter des Geschäftsfelds Industrial Analytics am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS).
Fertigung braucht Latenz unter einer Millisekunde
Daher beschäftigen sich Forschungsinitiativen damit, dies Latenz zu verringern – also die Verzögerung mit der Daten übertragen werden. In Fertigungsprozessen beispielsweise ist oft eine Latenz erforderlich, die unter einer Millisekunde liegt. In den Fabrikhallen wird daher hauptsächlich per Kabel kommuniziert, da drahtlose Technologien noch zu langsam sind.
„Wenn man hochflexible Anlagen betreiben möchte, dann muss man aber Kabellösungen durch drahtlose Technologien ersetzen“, erklärt Norman Franchi. „Und die müssen mindestens ebenso gut funktionieren und die entsprechenden Reaktionszeiten bieten.“ Franchi ist Gruppenleiter für Wireless Industrial Communications am Vodafone Lehrstuhl für mobile Nachrichtensysteme der TU Dresden. Der Lehrstuhl beteiligt sich an verschiedenen eigenständigen Projekten, die im Forschungsverbund „Zuverlässige, drahtlose Kommunikation in der Industrie“ (ZDKI) zusammengefasst sind. Diese arbeiten an unterschiedlichen Anwendungsfeldern und mit verschiedenen Ansätzen, aber mit einem gemeinsamen Ziel: Die drahtlose Kommunikation in der Produktion echtzeitfähig zu machen.
Nebel statt weit entfernter Wolke
Gefordert sind aber nicht nur Netztechnologien, um das Potenzial von Big Data künftig voll auszuschöpfen. Grundsätzlich wird daran gearbeitet, die Intelligenz möglichst nahe an die Sensoren zu bringen, um so schneller reagieren zu können.
Das hat auch Auswirkungen auf Cloud-Konzepte. „Wenn man echtzeitfähig sein möchte, kann man die Daten nicht zuerst in die Cloud schicken und dann auf eine Antwort warten“, sagt Koch. Ein Lösungsansatz ist das so genannte Edge oder Fog Computing. Dabei wird Rechenleistung näher beim Nutzer beziehungsweise bei den Maschinen und Sensoren positioniert – so wie auch der Nebel eine Wolke ist, die sich nahe am Boden befindet. Um Daten zu analysieren, müssen diese nicht mehr an ein weit entferntes Rechenzentrum übermittelt werden.
Zahlreiche IT-Anbieter arbeiten bereits an entsprechenden Lösungen. So hat zum Beispiel Cisco eine Infrastruktur entwickelt, um etwa Analysefunktionen direkt im Netzwerk auszuführen. Damit können laut Anbieter die Nutzer die Sensordaten lokal verarbeiten und damit extrem zeitkritische Anwendungen umsetzen. Das IT-Haus Hewlett Packard Enterprise (HPE) hat entsprechende Server und Gateway-Systeme im Angebot. Mit diesen lassen sich Daten dort zusammenfassen und verarbeiten, wo sie entstehen. Große Datenmengen können dank solcher Lösungen schneller ausgewertet werden. Und mithilfe Künstlicher Intelligenz (KI) lässt sich zunehmend mehr Wissen aus diesen generieren.
Cognitive-Computing-Technologien wie Deep-Learning oder Natural Language Processing spielen eine zunehmend größere Rolle für Big Data. Bisher waren damit noch hohe Kosten und viel Aufwand verbunden. Unternehmen mussten in entsprechendes Know-how und leistungsfähige Technologien investieren.
Doch mittlerweile sind Lösungen auf dem Markt, mit denen sich nach Meinung der Anbieter KI einfach nutzen lassen soll. Für die größte Aufmerksamkeit sorgt derzeit sicherlich IBM mit Watson. Der IT-Riese hat auf Basis von Watson Lösungen für verschiedene Branchen und Anwendungen erstellt. So nutzt zum Beispiel der Schweizer Zementproduzent Lafargeholcim die Technologie für sein Energiemanagement. Denn der Energieverbrauch ist der höchste Posten auf der Gesamtkostenrechnung des Unternehmens. Die Schwankungen zwischen den weltweit rund 1000 Zementmühlen betragen bis zu 40 %.
Das für Lafargeholcim entwickelte kognitive System analysiert ständig alle relevanten Daten und gibt auf Basis der Auswertungen Ratschläge, wie sich der Verbrauch optimieren lässt. Laut Unternehmen konnte dadurch bereits ein zweistelliger Millionenbetrag eingespart werden.
Software regelt Stromversorgung
Big-Data-Spezialist SAS hat ebenfalls kognitive Technik in sein Angebot aufgenommen. „Wir setzen Deep Learning und High-Performance-Computing dafür ein, die Automatisierung und Interaktionen zwischen Computern und Menschen zu verbessern“, erklärt Oliver Schabenberger, Executive Vice President und Technikvorstand bei SAS.
Unter anderem können Energieunternehmen die Technik für Prognosen nutzen, um die Stromversorgung auch bei extremen Temperaturschwankungen zuverlässig zu gewährleisten. Ein weiteres Einsatzgebiet ist der Handel. Eine Analyse-Lösung wertet dort große Mengen an Daten zu Umsatz, Lieferkette sowie demografische und saisonale Informationen aus. Laut SAS lernt das System, Preise zu kalkulieren, um den Abverkauf zu unterstützen und den Lagerbestand zu optimieren.
Vor allem im Vertriebsumfeld kommt die KI-Lösung vom Cloud-Anbieter Salesforce zum Einsatz. Das System namens Einstein verarbeitet Kundendaten, Social-Media-Informationen, Bilder und Aktivitätsdaten aus Chat- und E-Mail-Programmen, um zum Beispiel Vertriebsmitarbeitern Handlungsempfehlungen zu unterbreiten. Darüber hinaus werden aber auch Daten von IoT-Geräten in die Analyse eingebunden. So sollen sich etwa Service-Prozesse verbessern lassen. Mit Einstein erhalte der Anwender einen persönlichen Data-Scientist-Spezialist, behauptet Salesforce-Chef Mark Benioff.
KI-Systeme wachsen zusammen
Zwischen kognitiver Technik und Datenanalyse gibt es aber auch eine Wechselwirkung. So bringen etwa selbstlernende Systeme Nutzen für Big Data, weil sie dazu beitragen, bessere Schlüsse aus großen Datenmengen zu ziehen. Umgekehrt sei Big Data aber auch eine wichtige Voraussetzung für Machine Learning, so Koch vom Fraunhofer IAIS. Denn die Systeme brauchen große Datenmengen, um aus deren Analyse möglichst schnell lernen zu können. Laut Koch liefern kognitive Systeme zur Zeit zwar nur Antworten auf spezialisierte Fragen wie etwa zum Kundenverhalten oder zum Energiemanagement. Für die Zukunft erwartet der Experte aber, dass diese Systeme zusammenwachsen werden. Eine solche umfassende Lösung könnte der Führungsebene eines Unternehmens über ein einheitliches Interface die Erkenntnisse aus allen wichtigen Bereichen bereitstellen. „Das könnte dann quasi ein Siri für den Vorstand sein“, sagt Koch.
In den meisten Unternehmen sind die Voraussetzungen für Big Data jedoch alles andere als optimal. Die große Herausforderung liegt darin, die Daten so aufzubereiten, dass diese überhaupt analysiert werden können. Denn in den Firmen liegen Daten in vielen verschiedenen Systemen und in unterschiedlichen Formaten vor. „Nicht alle Informationen werden in einem ERP-System gehalten, wo alles gleich aussieht“, berichtet Koch.
Hinzu kommen im Industrie-4.0-Kontext die Daten aus den Maschinen. „Diese in eine Struktur zu bringen, um sie analysieren zu können, ist mit viel Arbeit verbunden“, erklärt er. Der Experte schätzt, dass in einem Datenanalyse-Projekt der Aufwand für die Aufbereitung der Daten durchschnittlich bei 80 % liegt. Für die Unternehmen wird also künftig noch einiges zu tun sein, um Nutzen aus Big Data ziehen zu können.
Algorithmen schützen persönliche Informationen
Eine andere Hürde für Big Data stellt auch der Datenschutz dar. Bestimmte Geschäftsmodelle erfordern die Auswertung persönlicher Daten, der gerade in Deutschland aus guten Gründen Grenzen gesetzt sind.
Laut Koch gibt es derzeit viele Forschungsinitiativen, die daran arbeiten, Datenschutz und Big Data miteinander in Einklang zu bringen. Privacy Preserving Data Mining lautet das entsprechende Stichwort. Unter anderem beschäftigt sich das Fraunhofer IAIS mit diesem Thema. Gemeinsam mit Siemens entwickeln die Wissenschaftler eine Toolbox, mit der sich Datenschutztechnologien reibungslos in Big-Data-Anwendungen integrieren lassen sollen.
„Moderne Algorithmen können Daten zwar bereits zuverlässig anonymisieren, sind aber in der Regel nicht auf Big-Data-Architekturen ausgelegt“, sagt Prof. Stefan Wrobel, Institutsleiter des Fraunhofer IAIS. Die sogenannte Privacy Preserving Big Data Analytics Toolbox arbeitet daher mit Datenschutz-Algorithmen, die speziell auf die Anforderungen von Big-Data-Anwendungen angepasst sind. Dafür nutzt sie verschiedene Anonymisierungsverfahren. Dazu gehören beispielsweise Verfahren, die Namen zuverlässig verschlüsseln, personenbezogene Informationen in Gruppen zusammenfassen oder Datenabfragen nur mit einer Mindestanzahl an Treffern ermöglichen. So wird etwa verhindert, dass einzelne Personen identifizierbar werden können.
Technisch stehen bei der Zusammenstellung der Toolbox zwei Aspekte im Vordergrund: Zum Einen müssen die Verfahren in der Lage sein, parallel auf mehreren Systemen zu laufen. Dazu adaptieren die Experten die Algorithmen an gängige Big-Data-Systeme wie Hadoop und massiv parallele Datenbanken. Zum Anderen gilt es, die Technologien echtzeitfähig zu machen. Darüber hinaus wird die Toolbox auch Verfahren enthalten, die eine unmittelbare Anonymisierung von Sensordaten ermöglichen. Aufgrund solcher und anderer Initiativen könnte es gelingen, dass Big Data trotz Datenschutz sein großes Potenzial entfalten wird.
Noch viele Hürden zu überwinden
Big Data spielt eine große Rolle in den Unternehmen. Laut dem Marktforschungshaus Gartner haben 2016 weltweit 48 % der Unternehmen entsprechende Investitionen getätigt – das sind drei Prozent mehr als im Vorjahr. Doch die Investitionen sind häufig nicht von Erfolg gekrönt. Nur 15 % berichten, dass sie ihr Big-Data-Projekt auch in die Produktiv-Phase gebracht haben. An der Umfrage nahmen 199 Führungskräfte teil.
Eine andere Studie zeigt die Probleme, die in den deutschen Unternehmen noch mit Big Data verbunden sind. Laut einer Untersuchung des IT-Branchenverbands Bitkom und dem Beratungsunternehmen KPMG erkennen hierzulande immer mehr Firmen den Mehrwert, den ihnen die Auswertung ihrer Daten bieten würde. Allerdings herrscht nach wie vor große Unsicherheit in den Bereichen Recht, Sicherheit und Ressourcenaufwand. So antworteten 55 % der 700 befragten Entscheider, sie verfügten über zu wenig Budget für geeignete Werkzeuge. Der Hälfte der Befragten fehlen die nötigen Datenanalyse-Spezialisten und weitere 41 % befürchten bei der Auswertung ihrer Daten eine unklare Rechtslage.
Unsere Webinar-Empfehlung
Der Summit richtet sich an Entscheider aus den Bereichen Fertigung, Instandhaltung, Fabrikautomatisierung, Automatisierung, Intralogistik und Fabrikplanung, Netzplanung, Netzwerkinfrastruktur, Innovationsmanagement. Daneben sind Hersteller aus den Bereichen Maschinenbau, Sensorik,…
Firmen im Artikel
Teilen: