Startseite » Management »

Implementierung datenbasierter Geschäftsmodelle

Implementierung datenbasierter Geschäftsmodelle
Digitalisierung in KMUs – Was steckt eigentlich konkret dahinter?

Im Maschinen- und Anlagenbau, wie auch in vielen anderen Branchen, beschäftigt sich jedes Unternehmen in irgendeiner Form mit der Digitalisierung. Die digitale Transformation in der Industrie umfasst die Einführung smarter Technologien verbunden mit organisatorischen Veränderungsprozessen.

» Florian Breker, Business Consultant IoT & Data Science & Sebastian Meister, Consultant Data Science bei Aerzen

Jede Maschine produziert eine Vielzahl von Daten, von der Leistungsaufnahme bis zu den Betriebsstunden. Diese Daten werden zwar häufig erfasst, bleiben aber meist ungenutzt. Dabei könnten sie, intelligent ausgewertet, beispielsweise den Energieverbrauch senken oder Wartungsintervalle optimieren. Der westeuropäische Markt für datenbasierte Dienstleistungen im Maschinenbau hat bereits ein Volumen von 20 Mrd. Euro und wächst stetig. Dennoch haben neun von zehn Maschinenbauunternehmen solche Dienstleistungen noch nicht entwickelt. Vor allem kleine und mittlere Unternehmen (KMU) kämpfen mit begrenzten Ressourcen, fehlendem Know-how und Bedenken hinsichtlich der Datensicherheit. Dieser Artikel beleuchtet die notwendigen Schritte für eine erfolgreiche Umsetzung digitaler Services sowie die damit einhergehenden Herausforderungen anhand der Erfahrungen der Aerzen Digital Systems bzw. der Aerzen Gruppe.

Problemverständnis & Geschäftsmodellentwicklung

Der erste Schritt ist das genaue Verständnis des zugrundeliegenden Anwendungsfalls bzw. das umfassende Problemverständnis. Hieraus werden anschließend, in einem zweiten Schritt, geeignete Ideen identifiziert und in ein profitables Geschäftsmodell überführt. Eine systematische Auseinandersetzung mit den Chancen und Risiken des Marktes und eine klare Definition der eigenen Ziele unter Berücksichtigung von Wettbewerbsfähigkeit und Rentabilität sind unerlässlich. Ein tiefes Verständnis für die Bedürfnisse und Herausforderungen der Kunden ist dabei entscheidend. Fragen wie „Warum entscheiden sich Kunden gerade für uns?“ oder „Wo sehen sie Herausforderungen durch Wettbewerber?“ können durch gezielte Befragung von Maschinenkunden oder durch Interviews mit Vertriebs- und Servicemitarbeitern beantwortet werden. So lässt sich der direkte Nutzen einer datenbasierten Geschäftsidee konkretisieren, etwa durch Energieeinsparungen oder eine verbesserte Fehlererkennung.

Ein durchdachtes Geschäftsmodell adressiert Kundenprobleme und zeigt das wirtschaftliche Potenzial auf. Technische Expertise, klare Kommunikation und Methoden wie das Business Model Canvas sind für eine erfolgreiche Umsetzung unentbehrlich. Auf die Konzeption folgt die technische Umsetzung.

Datenhandling

Im dritten Schritt steht die Analyse von Maschinendaten im Vordergrund. Ein Mangel an Datenqualität und -verfügbarkeit kann jedoch die Umsetzung behindern. Vor dem Infrastrukturaufbau sollte eine Potenzialanalyse die Datenqualität überprüfen.

Für ein datenbasiertes Geschäftsmodell gilt es, relevante Daten aus der Geschäftsfrage abzuleiten. Bei Dienstleistungen zur Maschinendiagnose oder -prognose sind zentrale Maschinen- und Prozessdaten, wie Leistungsaufnahme oder Vibrationen, zu identifizieren. Viele dieser Daten existieren in der Maschinensteuerung, sind aber nicht analysierbar. Fehlende Daten lassen sich durch Sensoren, Experimente oder externe Quellen ergänzen.

Für die Datenauswertung ist eine geeignete Infrastruktur, inklusive Datenbankstruktur und Integration externer Daten, nötig. Vor der Analyse müssen Daten aus diversen Quellen vorbereitet werden, wobei Aufbereitungsschritte oft komplexer als die Analyse selbst sein können.

Exploration der Prozessinformation

Liegen die relevanten Daten vor, kann im vierten Schritt die eigentliche Sichtung in Verbindung mit einer Schwachstellenanalyse hinsichtlich der Aussagekraft in Bezug auf das angestrebte Geschäftsmodell erfolgen. Hierfür folgt zunächst eine Analyse der Datenqualität. Bei dieser stehen Aspekte wie Null- oder Fehlwerte, Ausreißer, Datenmenge und Abtastrate im Vordergrund. So müssen beispielsweise Schwingungen je nach Frequenz im Millisekundenbereich erfasst werden, während Temperaturaufzeichnungen in größeren Zeitabständen erfolgen können. Zusätzlich sollten statistische Kennzahlen zur genauen Bewertung der Datencharakteristik herangezogen werden.

Ein iteratives Vorgehen ermöglicht, die Datenqualität kontinuierlich zu verbessern. Wesentlich ist auch die Überprüfung von Zusammenhängen zwischen Datenvariablen und das Erkennen von zeitlichen Abhängigkeiten. Dies hilft zu beurteilen, ob die Daten durch ein Modell adäquat abgebildet werden können und ob die Umsetzung des geplanten Dienstes aus datentechnischer Sicht realisierbar ist. Für eine ganzheitliche Bewertung sind nicht nur statistische Kompetenzen erforderlich, sondern auch das Wissen von Maschinen- und Prozessexperten, die die Bedeutung der identifizierten Datenzusammenhänge im realen Kontext beurteilen können.

Modellierung der Daten

Im fünften Schritt erfolgt die Modellierung der Daten, um hieraus weiterführende Erkenntnisse zu gewinnen, welche einen Mehrwert für das Geschäftsmodell bieten. Dies können zum Beispiel bestimmte Klassifikationen oder Prognosen sein. Hierfür gibt es verschiedene Methoden und Herangehensweisen, welche sich prinzipiell in die drei Gruppen statistische Verfahren konventionelles Maschinelles Lernen und Deep Learning untergliedern lassen.

Statistische Verfahren dienen dazu, das Systemverhalten mit Hilfe von Wahrscheinlichkeitsmodellen abzubilden. Idealerweise sollten Daten auf der Grundlage physikalischer Zusammenhänge statistisch modelliert werden. Gerade bei komplexen Problemstellungen kann dies jedoch sehr aufwendig, teuer oder gar nicht realisierbar sein. Hier setzt maschinelles Lernen an, das Probleme in einen höherdimensionalen mathematischen Raum abstrahiert und löst.

Es gibt zwei Hauptströmungen des maschinellen Lernens: konventionelles maschinelles Lernen und Deep Learning. Während sich konventionelle Ansätze auf bestimmte Merkmale eines Signals konzentrieren, um Entscheidungen wie Klassifizierungen oder Vorhersagen zu treffen, verwendet das Deep Learning neuronale Netze. Diese Netze, die dem menschlichen Gehirn nachempfunden sind, bestehen aus Eingangs-, Ausgangs- und vielen Zwischenschichten mit Knoten, den „Neuronen“. In diesen tiefen neuronalen Netzen erfolgt die Entscheidungsfindung durch die Aktivierung bestimmter Neuronenverbindungen auf der Grundlage eines zuvor trainierten Musters. Das Training dieser Muster ist aufwendig und erfordert oft Tausende von Datenpunkten.

Eine Herausforderung solcher Modelle ist ihre Abstraktheit. Sie macht es oft schwierig, die zugrunde liegenden Entscheidungsprozesse und Ergebnisse zu verstehen. Obwohl es mathematische Methoden gibt, den Entscheidungsprozess solcher Modelle zu bewerten, bleibt ihre Interpretation oft komplex. Daher ist es empfehlenswert, immer das einfachste Modell zu verwenden, das die vorab definierten Genauigkeitsanforderungen erfüllt.

Verwertung und anfallende Kosten

Bei der Entwicklung eines datenbasierten Dienstes gilt es zunächst, einen geeigneten Business Case und ein Geschäftsmodell zu erstellen. Darauf aufbauend wird ein Minimum Viable Product (MVP) konzipiert und anschließend ein Proof-of-Concept (PoC) mit festen Bewertungskriterien entwickelt. Bevor eine Software in Betrieb genommen wird, sollten die Integration, der Nutzerkreis und die Systemsicherheit berücksichtigt werden. Bei der Darstellung der Daten reicht das Spektrum von einfachen Dashboards bis hin zu komplexen Prognosesystemen. Die Benutzerfreundlichkeit sollte immer im Vordergrund stehen.

Die Kosten im Data Science Lifecycle beginnen bei wenigen Tausend Euro für ein KI-Basistraining. Eine umfassende Instrumentierung eines Anlagenteils oder Maschinenelements inklusive umfangreicher Datenaufzeichnung und Ablage ruft bereits Kosten im mittleren fünfstelligen Bereich hervor. Komplexere Datenanalysen und eine individuelle Entwicklung, Validierung und Betrieb von Maschinellen Lernalgorithmen bewegen sich dagegen schnell im unteren sechsstelligen Bereich. Eine sorgfältige Planung und die Beratung durch Experten sind entscheidend, um Kostenüberschreitungen zu vermeiden.

Fazit

Inmitten des Digitalisierungshypes, insbesondere rund um das Thema KI, sollten Mittelständler pragmatische Ansätze verfolgen. Oft genügt eine einfache statistische Datenanalyse, um den Einstieg zu finden. Es empfiehlt sich, aus kleinen Projekten zu lernen und mit erfahrenen Experten zusammenzuarbeiten. So lassen sich Ressourcen effizient einsetzen und Fallstricke vermeiden.

Unsere Webinar-Empfehlung


Hier finden Sie mehr über:
Industrieanzeiger
Titelbild Industrieanzeiger 6
Ausgabe
6.2024
LESEN
ABO
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de