Neue Datenbanktechnologien ermöglichen Datenanalysen in Echtzeit

Große Daten steigern den Umsatz

Anzeige
Big Data | Das Sammeln und schnelle Analysieren großer Datenmengen ist nicht mehr nur für Betriebswirtschaftler ein Thema. In der Fabrik sorgt Big Data für intelligente Wartung und Instandhaltung von Maschinen und Anlagen.

Sabine Koll Journalistin in Böblingen

Die Qualität von Folien hängt hochgradig von den Einstellungen an den Maschinen ab. Mehr als 10 000 Parameter gibt es bei den Produktionsanlagen von Brückner Maschinenbau, mit denen verschiedenste Folientypen gefertigt werden – als hochwertiges Verpackungsmaterial und für technischen Anwendungsbereiche wie zum Beispiel Kondensatoren, Solar-Module oder Displays. Um den steigenden Qualitätsanforderungen der Kunden gerecht zu werden, überwacht und analysiert der Maschinenbauer aus dem bayerischen Siegsdorf die Folienproduktion permanent. Dies erfolgt einerseits manuell durch Qualitätsprüfungen im Labor und andererseits automatisch durch kontinuierliche Erfassung von Sensor- und Messdaten wie Temperaturen, Drücke, Geschwindigkeiten und Foliendicke.
Um die von den Produktionsanlagen generierten Sensordaten zuverlässig erfassen und effizient analytisch weiterverarbeiten zu können, entwickelte Brückner Maschinenbau gemeinsam mit einem IT-Dienstleister ein dezentralisiertes System, das Produktions- und Prozessdaten in hoher Frequenz speichern und in Echtzeit analysieren kann: Das Sensornetzwerk, die Inline-Messsysteme und die Kamerainspektionssysteme erzeugen an einer Produktionsanlage jährlich mehrere Terabyte an Prozess- und Qualitätsdaten. Die Erfassungsrate der Daten bewegt sich im Bereich von Millisekunden, Sekunden und Stunden bis hin zur Batch- Verarbeitung. An einer Produktionsanlage werden bis zu 100 000 Datenpunkte erfasst, welche eine Update-Rate von durchschnittlich 1000 Updates pro Sekunde erzeugen.
Dieses Predictive-Maintanance-Beispiel zeigt: Big Data – also das Sammeln und Analysieren großer Datenmengen – ist längst in der produzierenden Industrie angekommen; und zwar nicht nur im betriebswirtschaftlichen Umfeld, sondern eben auch in der Fertigung und in den Maschinen und Anlagen selbst. Lange Zeit konzentrierten sich Big-Data-Anwendungen auf die gezielte Analyse von Unternehmens-, Markt- und Kundendaten – mit dem Ziel einer besseren Unternehmens-Performance, eines besseren Risikomanagements sowie einer potenzielle Ausweitung der Produkt- oder Dienstleistungspalette.
Wie weit dies gehen kann, zeigt das Hamburger Start-up Kreditech: Das Geschäftsmodell des Online-Finanzdienstleisters gründet sich auf Big Data und komplexen selbstlernenden Algorithmen. Sie ermöglichen ihm schnelle und nachhaltige Kreditentscheidungen. Die Technologie dahinter ist vollautomatisiert. Sie identifiziert Personen online innerhalb weniger Sekunden und errechnet ihren Kreditscore mithilfe von bis zu 15 000 verschiedenen Datenpunkten. Es handelt sich um geografische, Verhaltens-, Web-Nutzungs- und Gerätedaten sowie finanzielle und öffentliche Daten. Hinzu kommen Informationen aus den sozialen Netzwerken, wenn der Antragsteller diese zur Verfügung stellt.
Kreditech nennt dieses Schnüffeln in Daten Service-Orientierung: Bei einer traditionellen Bank benötigt der Kreditantrag fünf bis zehn Arbeitstage, es müssen diverse Formulare ausgefüllt und Belege erbracht werden. Bei Kreditech hingegen erfolge bei positiver Kreditwürdigkeit die Auszahlung in weniger als 15 Minuten.
„Die Nutzung von Big Data ist weltweit auf dem Vormarsch“, bestätigt Dr. Carsten Bange, Geschäftsführer des Würzburger Business Application Research Center (Barc) (Halle 1, Stand H49). Nach der neuen Studie „Big Data use cases 2015 – getting real on data monetization“ des Analysten- und Beratungshauses berichten viele Unternehmen mit Big-Data-Initiativen on beachtlichen Vorteilen, die sich für sie mittlerweile aus der Analyse und Einbeziehung großen und unterschiedlich strukturierter Daten in die täglichen Abläufe ergeben haben: Danach helfen ihnen diese Informationen bei strategischen Entscheidungen (69 %), sie ermöglichen eine effektivere Steuerung operativer Prozesse (54 %), helfen die eigenen Kunden besser verstehen (52 %) und allgemein die Kosten zu senken (47 %).
Dort, wo Unternehmen den Nutzen heute bereits genauer beziffern können, geht man von einer durchschnittlichen Umsatzsteigerung von 8 % und einer Kostensenkung um 10 % aus. Erfreulich ist laut Barc zudem, dass Unternehmen mit ersten Big-Data-Erfahrungen ihre Erwartungen nicht nur erfüllt, sondern in vielen Punkten sogar übertroffen sehen.
Kundenanalyse ist der häufigste Treiber für Big-Data-Projekte
Mit der Praxiserfahrung nimmt auch die Vielfalt der Anwendungsfelder für Big-Data-Analysen zu, wie bereits frühere Barc-Untersuchungen gezeigt hatten. Aktuell sind dabei vor allem Auswertungen, die mehr über die Wünsche, Motive, Bedürfnisse sowie das Verhalten der Kunden verraten, eines der häufigsten strategischen Ziele solcher Initiativen und Projekte. Big-Data-Initiativen können die komplette Interaktion mit dem Unternehmen transparent machen, sofern es gelingt, die Daten von den vielfältigen Kontaktpunkten mit Kunden aus den Datensilos zu holen, zusammenzuführen und in Gänze auswertbar zu machen.
Wo dies der Fall ist, können Unternehmen zielgerichteter und individueller Kunden ansprechen, Abwanderungsverhalten vorbeugen oder auch um neue Kunden gewinnen. Marketing und Vertrieb sind dementsprechend aktuell die Vorreiter bei Big-Data: In 25 beziehungsweise 23 % der Unternehmen, in denen Big Data zumindest denkbar ist, sind in diesen Abteilungen Big-Data-Analysen fester Bestandteil ihrer Auswertungen. Gleichwohl finden sich auch in anderen Unternehmensbereichen heute schon ausreichend Anwendungsfälle – von der Produktion über das Controlling bis hin zum Personalwesen.
Einsatzszenarien, Datenschutz und Skills bleiben ein Problem
„Ebenso dürfen die mit Big Data verbundenen Herausforderungen nicht unterschätzt werden“, mahnt Barc-Geschäftsführer Dr. Carsten Bange. „Datenschutz und Datensicherheit sind die beiden größten Probleme in Unternehmen, die schon heute Big-Data-Initiativen in ihren Unternehmensprozessen implementiert haben.“ Praktisch überall auf der Welt klagten Unternehmen zudem über fehlende technische und fachliche Big-Data-Expertise. Zwar geben viele Unternehmen an, sogar neue Stellen in diesem Bereich schaffen zu wollen. Dennoch bleibe es laut Bange äußerst fraglich, ob sich auf den weltweiten Arbeitsmärkten auch nur annähernd so viele fähige Kandidaten tummeln, wie die Unternehmen benötigen. „Dieser Umstand könnte sich zu einem echten Showstopper für Big-Data-Vorhaben entwickeln und erfordert daher auch die Weiterbildung der vorhandenen Mitarbeiter.“
Viele Unternehmen nutzen für ihre Big-Data-Projekte mittlerweile In-Memory-Technologien, weil sie dadurch, dass sie Daten im Arbeitsspeicher speichern und abrufen, eine deutlich erhöhte Geschwindigkeit in der Verarbeitung und im Reporting ermöglichen. Nach der aktuellen Studie „In-Memory-Analytics“ von Sopra Steria Consulting, für die 100 IT-Entscheider aus Unternehmen ab 500 Mitarbeitern befragt worden sind, setzt ein Drittel der Unternehmen eine In-Memory-Datenbank ein. Mehr als die Hälfte plant darüber hinaus den Einsatz einer solchen Datenbank. Vorreiter sind Unternehmen mit großen Datenvolumen von hundert Terabyte und mehr: Mit Blick auf die Branchen zeigt sich, dass vor allem Finanzdienstleister (44 %) und Industrieunternehmen (43 %) bereits eine In-Memory-Datenbank einsetzen.
Die Nutzung von In-Memory-Datenbanken ist laut Sopra Steria Consulting weiter verbreitet als der Einsatz von In-Memory-Analytics. Dabei handelt es sich um die Erweiterung von In-Memory-Datenbanken, die nicht nur das Speichern großer, polystrukturierter Datenmengen in Echtzeit ermöglicht, sondern auch gleichzeitig deren analytische Verarbeitung. „Aufgabe der IT-Entscheider ist es nun, In-Memory-Datenbanken in Richtung Analytics weiterzuentwickeln“, sagt Robert Hänsel, Experte für Business Intelligence und Big Data Analytics bei Sopra Steria Consulting.
An erster Stelle der In-Memory-Datenbanken ist SAP Hana von SAP (Halle 1, Stand E51) zu nennen. Aktuell setzen nach Angaben des Walldorfer Softwareriesen über 7200 Kunden SAP Hana ein – und damit doppelt so viele wie noch vor einem Jahr. Darunter befinden sich immerhin 2100 Start-up-Unternehmen.
IFS integriert In-Memory-Technologie in ERP-Software für Datenanalysen
IFS (Halle 1, Stand E27) stellt auf der IT & Business ihr neues, für In-Memory-Technologie optimiertes Update der ERP-Software IFS Applications 9 vor. Die Unternehmenssoftware für den Mittelstand kann damit Echtzeit-Datenanalysen tausendfach schneller durchführen als mit einem Data Warehouse. Die In-Memory-Datenbank-Technologie von IFS ermöglicht Unternehmen durch die Verarbeitung transaktionaler Daten sehr schnelle Auswertungen und ein Reporting in hoher Geschwindigkeit. Darüber hinaus unterstützt sie die Software dabei, Datenvisualisierungen und -analysen direkt in die Prozesse der ERP-Software IFS Applications zu integrieren, und so die Transparenz auf allen Ebenen eines Unternehmens zu erhöhen.. Der Bedarf an Arbeitsspeicher wird dabei durch den evolutionären Ansatz von IFS möglichst gering gehalten. Anstatt die komplette Datenbank permanent im Arbeitsspeicher vorzuhalten, sorgt das Tool „IFS In-Memory-Advisor“ dafür, dass die Technologie nur in den Bereichen von IFS Applications zum Einsatz kommt, in denen sie ihren größten Nutzen entfalten kann. Die übrigen Daten können auf kostengünstigeren Festplatten verbleiben.
Neben In-Memory-Technologien bieten sich weitere Lösungen an – wie etwa Apache Hadoop: Dabei handelt es sich um eine auf Java basierende Open-Source-Lösung, die ein skalierbares und zeitgleich verteiltes Verarbeiten von großen Datenmengen ermöglicht: verteilt deswegen, weil mehrere Rechner eines Netzwerks an den Daten arbeiten können. Der Vorteil von Haadop: Es kann sehr leicht auf konventioneller Hardware betrieben werden, während SAP Hana etwa auf dafür zertifizierte SAN-Lösungen (Storage Attached Networks) zurückgreifen muss. IBM beispielsweise setzt mit Info-sphere Big Insights voll auf Hadoop, wenn es um die Analyse großvolumiger Daten geht.
Daneben kann auch die Kombination aus den beiden Plattformen SAP Hana und Apache Hadoop durchaus sinnvoll sein. Sie bietet sich vor allem an, wenn man Daten in feinster Granularität kostengünstig erfassen und diese zusammen mit den in Echtzeit zur Verfügung stehenden Informationen aus einem ERP-System analysieren will.
Auch NoSQL-Datenbanken können Unternehmen helfen, ihre Big-Data-Pläne umzusetzen. Unter dem Begriff NoSQL wird eine sehr heterogene Menge von Datenverwaltungssystemen mit unterschiedlichen Funktionen zusammengefasst. Gemeinsam ist ihnen vor allem, dass sie für Anwendungsfälle geschaffen wurden, in denen die verfügbaren SQL-basierten Datenbanken an ihre Grenzen stießen und daher nicht oder nur mit sehr großem Aufwand einsetzbar waren. Deshalb der Name „Not only SQL“, also „Nicht nur SQL“. Die seit dem Frühjahr verfügbare Document DB, die NoSQL-Datenbank von Microsoft (Halle 1, Stand E41), ist ein Beispiel dafür. Sie läuft auf Microsofts Azure-Cloud-Plattform.
Eher eine strategische Frage
Ob In-Memory-Computing, Hadoop, NoSQL – „Big Data ist nicht in erster Linie eine Frage der Technologie, sondern der Strategie“, stellt Dr. Thomas Franz, Leiter des Technologiebeirats des IT-Dienstleisters Adesso (Halle 1, Stand A41), klar. „Eine Big-Data-Technologie kann nur dann gewinnbringend eingesetzt werden, wenn der gewünschte Nutzen vorab mit allen Projektbeteiligten – von der Fachabteilung bis zur IT – eindeutig definiert wurde. Erst nach einer Potenzialanalyse lässt sich die Frage nach der richtigen Technologie beantworten.“ Das Dortmunder Unternehmen empfiehlt daher einen Fünf-Punkte-Plan auf dem Weg zur passenden Big-Data-Technologie:
In einem ersten Schritt sollten Unternehmen aus ihrer Unternehmensstrategie, ihren Zielen und ihren Kernkompetenzen ableiten, welchen Mehrwert ihnen Big Data liefern kann, und so konkrete Nutzungsszenarien ermitteln. Dann geht es an die Überprüfung des Reifegrads: Einige Anwendungsfälle können zwar nach Darstellung von Adesso sehr interessant und vielversprechend sein, die benötigten Daten aber noch nicht die erforderliche Reife aufweisen – beispielsweise, wenn Systeme, die Daten liefern, erst neu integriert oder vorhandene Daten bisher nur angesammelt und noch nicht klassifiziert wurden. Auch Aspekte jenseits von Technologien und Daten spielen meist eine entscheidende Rolle für die Bewertung eines Anwendungsfalls: Zum Beispiel: Wie viele Organisationseinheiten sind beteiligt? Wie stark sind Datenschutzfragestellungen betroffen?
Im nächsten Schritt geht es dann darum, einen Konsens herzustellen: „Die Entscheidung, welche Anwendungsfälle ein Unternehmen umsetzt, sollte unbedingt im Konsens zwischen Fachbereichen und IT-Abteilung getroffen werden“, rät Franz. „Geschieht dies nicht, ist das Risiko sehr hoch, dass die Fachbereiche andere Vorstellungen und Ziele haben, als die IT dann umsetzt.“
Stehen die Anwendungsfälle fest, lässt sich daraus ableiten, welche Eigenschaften die eingesetzte Technologie mitbringen muss. So benötigen manche Szenarien laut Adesso eher die Ad-hoc-Abfrage von Daten, andere dagegen bestimmte Aggregationen, erkundende Verfahren oder Verfahren für Vorhersagen oder Empfehlungen.
Anhand der so ermittelten Kriterien lässt sich schließlich gezielt die passende Technologie auswählen. „Verlangt ein Anwendungsfall besonders hohe Verarbeitungsgeschwindigkeiten, empfiehlt sich In-Memory-Computing“, sagt Franz. „Stehen hohe Skalierbarkeit sowie eine schnelle Speicherung und eine einfache Abfrage riesiger Datenmengen im Vordergrund, spricht das für Key-Value-Datenbanken. Traditionelle relationale Datenbanken sind in diesem Fall dagegen eher nicht geeignet, da sie komplexere Skalierungsmodelle unterstützen und einen hohen Aufwand für den Umgang mit heterogenen oder sich häufig ändernden Daten erfordern.“ Eine allgemeingültige Regel gebe es allerdings nicht.
Fokus auf neuen datengetriebenen Geschäftsmodellen
Die Experton Group rät Anwendern, den Fokus von Big-Data-Projekten auf neue, datengetriebene Geschäftsmodelle zu legen. „Schließlich ist niemandem geholfen, wenn nach der Installation von ein paar Petabyte an Speicher und dem Befüllen dieser Racks lediglich News und Social-Media in die Kennzahlenermittlung einfließen“, warnt Holm Landrock, Senior Advisor bei der Experton Group. „Ebenso nützt es den Unternehmen nur bedingt, wenn mittels teuer erkaufter In-Memory-Technologie ein Report für das Finanzwesen in weniger als einer Sekunde auf dem Bildschirm erscheint, wo zuvor 60 Minuten erforderlich waren. Realtime-Informationen können jedoch geschäftsentscheidend werden, wenn sie richtig in den Geschäftsprozessen eingesetzt werden.“ Big Data bedeutet nach Meinung von Landrock, „aus dem Blick auf immer mehr Daten zu neuen Erkenntnissen zu kommen und nicht nur alte Erkenntnisse auf mehr Daten zu stützen“. •
Anzeige

Industrieanzeiger

Titelbild Industrieanzeiger 20
Ausgabe
20.2019
LESEN
ABO

E.ON: Energie für Unternehmen

E.ON für Unternehmen

Energielösungen für Unternehmen

Video aktuell

Greiferintegration leicht gemacht: Die Zimmer Group zeigt, wie es geht.

Newsletter

Jetzt unseren Newsletter abonnieren

Tipps der Redaktion

Unsere Technik-Empfehlungen für Sie

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner

Anzeige
Anzeige

Industrie.de Infoservice

Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de