Startseite » Allgemein »

Big Data in KMUs

Big Data in mittelständischen Unternehmen
Daten machen schlau

Die Erwartungen an Big Data sind groß: Sie umfassen verbesserte Prognosen (60 %), spürbare Kosteneinsparungen (55 %) oder auch die Verbesserung von Produkten und Services (50 %). Das belegt unter anderem eine Studie der Technologieberater von BearingPoint aus dem Jahr 2019. Big Data ist zum Hoffnungsträger der Digitalisierung geworden.

Michael Grupp
Freier Journalist in Stuttgart

Nach der BearingPoint-Studie sind nahezu alle (98 %) befragten Führungskräfte überzeugt, dass der Verzicht auf Big Data und Data Analytics einen Wettbewerbsnachteil darstellt. An Daten mangelt es nicht: Sie reichen von Klickraten und Social-Media-Analysen über die Kundenkartei, Finanzmarktdaten und Videoaufzeichnungen bis hin zu Rückmeldungen von Sensoren und vernetzten Produktionsanlagen. Mittlerweile will jedes vierte Unternehmen (25 %) Big Data und Analytics vollständig implementiert haben. In der Vorgängerstudie lag dieser Wert vor zwei Jahren erst bei 7 %.

Im Umkehrschluss bedeutet dies aber auch: In der Produktion liegen noch Big Data- und Analytics‐Potenziale brach. Bei 75 % der Befragten kann die IT-Infrastruktur noch nicht aktiv nach Fehlermustern im Workflow suchen. In den kommenden fünf Jahren erwartet die Studie aber einen Anstieg um 230 % in der systematischen Zusammenführung von Sensor‐ und Maschinendaten. Damit sollen Probleme frühzeitig aufgezeigt, die Leistungsfähigkeit der bestehenden Produktion optimiert und das Management in der Entscheidungsfindung unterstützt werden. Aktuell dienen Data Analytics vor allem der Forschung und Entwicklung – bereits 83 % der Unternehmen richten die nächsten Produktgenerationen direkt an den dokumentierten Kundenwünschen und -erfahrungen aus. Kundendaten kommen darüber hinaus auch für die Kommunikation und das Marketing zum Einsatz. Dabei werden die bekannten Informationen wie demografische Daten, Standorte und Zugehörigkeiten, Transaktionen und die vom Außendienst erfassten Wünsche analysiert. Auf dieser Grundlage können Muster für zukünftige Kaufentscheidungen prognostiziert werden. Predictive Maintenance basiert dagegen auf Sensordaten aus den Produktionsprozessen. Sie melden nicht nur Störungen in Echtzeit, sondern erlauben auch Vorhersagen über zukünftige Probleme.

Ein bisher unterschätzter Anwendungsbereich dreht sich um Datensicherheit: Auf Basis von Big Data lassen sich Muster in den Zugriffen und Datenoperationen erkennen, die auf Betrug hinweisen. Zum Beispiel ungewöhnliche Zugriffszeiten, wiederholte Operationen oder die Abfrage von bislang ungewohnten Standorten oder Geräten. Ein weiteres Optimierungspotenzial bieten Data Analytics für eine dynamische Preisgestaltung. Dabei können zahlreiche Faktoren einbezogen werden – von den Rohstoffpreisen, über Rabattkonditionen für Neukunden bis hin zur eigenen Logistikkapazität. Mit anderen Worten: Wenn das Lager voll ist, wird’s billiger.

Risiken und Nebenwirkungen

Als größtes Hindernis nannten die Entscheider den Fachkräftemangel. 2017 beklagten bereits 44 % der befragten Unternehmen fehlende Daten-Spezialisten, in der Folgestudie waren es schon 72 %. Nur knapp 10 % der Unternehmen arbeiten deshalb mit internen Fachkräften, der große Rest beauftragt externe Dienstleister.

Zwei weitere Faktoren stehen der gewinnbringenden Nutzung unternehmenseigener Daten im Wege: die DSGVO sowie Sicherheitsbedenken. Die exakten Auswirkungen der Datenschutz-Grundverordnung können noch nicht sicher abgeschätzt werden – das bremst Analytics-Projekte derzeit häufig aus, namentlich wenn externe oder Kunden-Daten betroffen sind. Die DSGVO verbietet im „Erwägungsgrund 26“ die serielle Verarbeitung von Informationen, die sich auf identifizierbare Personen beziehen. Dabei macht es einen großen Unterschied, ob die absolute oder „nur“ eine faktische Anonymität gilt, bei der ein erheblicher Aufwand für die Personifizierung betrieben werden muss. Erschwerend kommt dazu, dass die DSGVO kaum darüber informiert, wie Anonymität überhaupt erreicht werden kann und ab wann Unternehmen juristisch auf der sicheren Seite sind. Zwar gibt es inzwischen eine Reihe von Urteilen zum Thema, die aber zu unterschiedlichen Einschätzungen kommen.

Einen Ausweg aus dieser Sackgasse muss jedes Unternehmen individuell finden. Dazu ist es notwendig, Datenflüsse zu analysieren und in ihrer Gesamtheit sicher zu beherrschen – von der Speicherung bis hin zur Analyse. Gleichzeitig müssen im derzeitigen rechtlichen Graubereich nicht nur die staatlichen Vorgaben, sondern auch die Verpflichtung gegenüber Dritten und nicht zuletzt die eigenen Unternehmensinteressen im Auge behalten werden. Das erfordert zwangsläufig interdisziplinäre Teams, um Data Analytics und Datenschutz sinnvoll unter einen Hut zu bringen. Dabei müssen die Werte und Interessen aller Beteiligten berücksichtigt werden. Wer als Datenschützer immer nur Verbote ausspricht, dient Big Data ebenso wenig wie die nonchalante Missachtung von Regeln.

Feind analysiert mit

Die Frage nach Cloud-getriebenen versus On-Premise-Lösungen hat sich Richtung Cloud verschoben. Gegen die Inhouse-Lösung spricht der hohe Investitionsbedarf für den Aufbau einer internen Infrastruktur für die Datenanalyse. Für das Training von Big Data-Modellen wird beispielsweise ein Verbund hochwertiger GPU-Karten (Grafical Processing Units) benötigt. Diese sind aber teuer und können von einem einzelnen Nutzer kaum kontinuierlich ausgelastet werden. Gleiches gilt für die Software: Während vor zehn Jahren zu Beginn der Big Data-Welle noch millionenschwere On-Premise-Systeme als Maß aller Software-Dinge galten, nutzen heute immer mehr Unternehmen Analyse-Software-as-a-Service. Sie sichern sich damit innovative Big Data-Lösungen, die sie je nach Bedarf vom Gigabyte- bis in den Terabyte-Bereich skalieren können, ohne Soft- und Hardware anzupassen zu müssen. Dazu kommt, dass die technologische Weiterentwicklung eine kurze Halbwertszeit der IT bedingt. Nach der Investition ist vor der Investition. Aber auch in der omnipräsenten Diskussion um Sicherheitsstandards hat die Cloud inzwischen die Nase vorn, die Anbieter realisieren inzwischen hohe Sicherheitsstandards. Die Security von Servern zählt zur Expertise von Cloud-Providern, während es in den IT-Abteilungen von Mittelständlern oft nur eine Aufgabe unter vielen darstellt.

Allerdings ersetzt die Cloud nie eine eigene, umfassende Sicherheitsstrategie. Denn während Daten auf externen Servern relativ sicher sind, können sie auf dem Weg dorthin respektive schon im unternehmenseigenen Datennetz abgefischt werden. Alles, was das eigene Netzwerk verlässt, muss deshalb verschlüsselt werden. Das gilt auch für die Ablage und Verarbeitung der analysierten Daten auf den firmeneigenen Rechnern.

Welcher Anbieter?

Wie finden Unternehmen den passenden IT-Dienstleister? Als mittelständischer Kunde ohne fundiertes Security-Know-how ist es schwer, das Sicherheitsniveau eines Cloud-Anbieters zu erkennen. Ein Blick in die klimatisierten Serverräume ist höchstens für Großkunden vorgesehen und macht zudem auch nicht unbedingt schlauer. Unternehmen können aber durchaus die Verlässlichkeit von IT-Dienstleistern überprüfen: anhand von Zertifikaten. In Deutschland dienen die ISO-Norm 27001 sowie der IT-Grundschutz des Bundesamts für Sicherheit in der Informationstechnik (BSI) als Maßstab. Beide belegen, dass die Anbieter Sicherheit systematisch umsetzen.

Bleibt die Bedrohung durch den Zugriff durch oder mit Duldung ausländischer Regierungen. Am 23. März 2018 trat in den USA der „Cloud Act“ in Kraft. Dieses Gesetz erlaubt es den US-Behörden, auf Cloud-Daten zuzugreifen, die im Ausland auf Servern von amerikanischen Unternehmen gespeichert sind. Da das Gesetz keine Informationspflicht an die betroffenen Unternehmen vorschreibt, kann kaum dagegen vorgegangen werden, zumal der Versuch in den meisten Fällen unbemerkt bleibt. Deutsche Rechtsprechung spielt in diesem Zusammenhang keine Rolle. Selbst explizite Vertragsvereinbarungen, wonach personenbezogene Daten nur in einem deutschen – oder zumindest europäischen – Rechenzentrum verarbeitet werden dürfen, schützen nicht vor Missbrauch: Weder Microsoft noch Alphabet garantieren dafür, dass Kundendaten nicht doch weitergegeben werden (müssen).

Ein Griff über den Atlantik

Wer dem verlässlich einen Riegel vorschieben möchte, hat prinzipiell zwei Möglichkeiten: die Aufteilung der Daten auf mehrere Provider oder die Entscheidung für originär deutsche und/oder europäische Anbieter. Für die Datenaufteilung hat das Hasso-Plattner-Institut (HPI) in Potsdam das Cloudraid-Verfahren entwickelt. Damit werden Daten zunächst verschlüsselt, fragmentiert und dann auf verschiedene Clouds verteilt. Auf diese Weise kann keiner der Cloud-Provider die Daten sinnvoll interpretieren beziehungsweise missbrauchen. Darüber hinaus wird so die Abhängigkeit von einzelnen Anbietern reduziert – allerdings zulasten von Performance und Wirtschaftlichkeit.

Die German Cloud

Es gab bereits mehrere Versuche für den Aufbau einer europäischen Dateninfrastruktur für die industrielle Nutzung – unter anderem unter der Federführung von Microsoft oder der Telekom. Sie konnten sich bislang nicht durchsetzen – sei es wegen ungeklärter Fragen zur Datensicherheit (siehe oben) oder wegen fehlender Wirtschaftlichkeit und Funktionalität im Vergleich zu den Global Playern. Aktuell startet ein neuer Anlauf: Gaia-X soll die neue europäische Daten-Cloud werden und den etablierten Internetkonzernen Paroli bieten. Gaia steht in der griechischen Mythologie für die personifizierte Erde und war eine der ersten Gottheiten. Das digitale Pendant soll die Grundlagen für eine unabhängige, leistungs- und wettbewerbsfähige, sichere und vertrauenswürdige Dateninfrastruktur für Europa legen. De facto stellen Google und IBM derzeit ein Oligopol dar und beherrschen mit ihren Produkten drei Viertel des Gesamtmarktes. Hiesige Unternehmen haben kaum eine andere Wahl, als diesen Anbietern zu vertrauen. Die Daten liegen trotz Sicherheitsbedenken oft auf US-amerikanischen oder chinesischen Servern.

Im „Handelsblatt“ beschrieb Bundeswirtschaftsminister Peter Altmaier das „enorme Potenzial für Dateninnovationen, insbesondere bei Maschinendaten und dem Internet of Things“. Die Initiatoren von Gaia-X kommen aus Politik, Wirtschaft und Wissenschaft. Ihnen schwebt ein offenes digitales Ökosystem vor, das für Datensouveränität sorgt und europäischen Unternehmen ihre Datensouveränität zurückgibt.

Dafür wollen die Verantwortlichen ein kooperatives Datennetzwerk aus Serverkapazitäten vieler kleiner und großer Firmen in Europa entwickeln. Fernziel ist laut Bundeswirtschaftsminister eine IT-Infrastruktur, die Daten bereitstellt, zusammenführt, vernetzt und teilt. Gaia-X soll unterschiedliche IT-Infrastrukturen wie Plattformen und Einzel-Clouds zu einem Verbund integrieren. Jeder Cloud-Anbieter mit der entsprechenden Referenzarchitektur kann zu einem Gaia-X-Knoten werden. Diese Knoten sollen eindeutig identifizierbar sein und eine Dokumentation zu den angebotenen Services, Preismodellen und zertifizierten Schutzgraden enthalten. Ein zentraler Verzeichnisdienst wird Anwendern helfen, Anbieter und Datenpools schnell und sicher zu identifizieren.

Dezentrale Architektur

Die Projektpläne bauen auf vorhandene Standards und Technologien. Deshalb werden die komplementären Aktivitäten der IDS-Initiative zur Datensouveränität (International Data Spaces Association) sowie die Standards der Trusted Cloud zur Zertifizierung genutzt. Auch europäische Initiativen und Aktivitäten werden in den weiteren Prozess einbezogen, dazu zählen insbesondere Projekte der EU-Kommission. Das Projektpapier des Bundesministeriums für Wirtschaft und Energie „Projekt Gaia-X – Eine vernetzte Dateninfrastruktur als Wiege eines vitalen, europäischen Ökosystems“ beschreibt eine erste Validierung der technischen Umsetzung auf Basis der Anwendungsgebiete. Als Rechtsform ist eine Europäische Genossenschaft (SCE) geplant, an der sich interessierte Partner beteiligen können.

Ob sich die europäische Daten-Cloud durchsetzen oder als politischer Papiertiger enden wird, steht noch in den Sternen. Die Messlatte liegt hoch: Wenn das Projekt nicht die Leistungsfähigkeit und Nutzerfreundlichkeit der großen Hyperscaler bietet, ist es zum Scheitern verurteilt und wird allenfalls ein Nischendasein fristen. Der Zeitplan für Gaia-X ist straff: Die Genossenschaft soll im Frühjahr 2020 gegründet werden, erste Tests des technischen Konzepts (Proof of Concept) sind für das zweite Quartal 2020 geplant, ein erster Testbetrieb für Ende des Jahres. Bis dahin gilt das Prinzip Hoffnung. 


Serie Industrie 4.0

Wir begleiten Sie mit unserer Serie auf dem Weg zur Digitalisierung. In dieser Ausgabe beleuchten wir Big Data und Data Analytics. Alle Beiträge finden Sie auch online auf www.industrieanzeiger.de.

Unsere Whitepaper-Empfehlung
Industrieanzeiger
Titelbild Industrieanzeiger 5
Ausgabe
5.2024
LESEN
ABO
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de