Startseite » Management » IT »

Industrie 4.0: Cloud Computing für die smarte Fabrik

Industrie 4.0
Cloud Computing für die smarte Fabrik

Die hiesigen Unternehmen gehen in die Cloud – angetrieben durch den digitalen Wandel. Die Vorteile des flexiblen Modells und Rechenzentren in Deutschland haben die Bedenken der Verantwortlichen weitgehend verdrängt

Markus Strehlitz

Cloud Computing hat sich als standardisierte Technologie im IT-Umfeld längst etabliert – zu diesem Ergebnis kommen die Analysten von Techconsult in einer aktuellen Marktstudie. Das gilt auch für Deutschland, in dem viele Unternehmen dem flexiblen IT-Modell in der Vergangenheit kritisch gegenüberstanden. Die Wachstumsraten von 18 bis 19 % für die kommenden Jahre belegen das.

In den Gesprächen mit den Unternehmen gehe es nicht mehr darum, ob man mit seinen Anwendungen in die Wolke gehe – sondern nur noch wie, berichtet Constantin Gonzalez, Principal Solutions Architect beim Cloud-Anbieter Amazon Web Services (AWS). Mehr noch: Viele der AWS-Kunden würden mittlerweile sogar einer Cloud-First-Strategie folgen. Neue Applikationen werden also vornehmlich mithilfe der Cloud umgesetzt.

Die Entwicklung in die Wolke hat in den vergangenen Jahren einen Schub bekommen. Und dafür sind vor allem zwei große Trends verantwortlich: Die digitale Transformation und Industrie 4.0 sind die Treiber in Richtung Cloud.

Cloud Computing erspart Unternehmen Investitionen in die Infrastruktur

Bei diesen beiden Themen kann IT aus der Wolke ihre Vorteile besonders gut ausspielen. „Bei Lösungen aus der Cloud spart man sich die Anfangsinvestitionen“, erklärt Techconsult-Analyst Henrik Groß. So eignet sich Cloud Computing besonders, um neue IT-Systeme einzuführen. Und dies ist vor allem bei der Umsetzung von Industrie 4.0 notwendig. Unternehmen brauchen neue Technologien für die smarte Fabrik. Dazu zählen zum Beispiel eine Messaging-Plattform für die Kommunikation zwischen Maschinen und IT-Infrastruktur oder Systeme für die Datenanalyse.

„Für die Digitalisierung und Industrie 4.0 sind massive Investitionen nötig“, sagt Groß. Maschinen stünden 20 Jahre und länger in einem Unternehmen. Diese müssten erst mal vernetzt und mit Software-Funktionen ausgestattet werden, wenn man nicht komplett neue Anlagen anschaffen wolle.

Mithilfe von Cloud Computing können sich Unternehmen laut Groß langsam der smarten Fabrik nähern und zunächst mit Teilbereichen anfangen. Gonzalez von AWS sieht das ähnlich: „Die Cloud bietet die Möglichkeit, zu experimentieren und zu schnellen Lösungen zu kommen.“

Entwicklung mit Industrie 4.0 steht noch am Anfang

Schließlich steht die Entwicklung bei Industrie 4.0 noch am Anfang. Und somit seien entsprechende Projekte noch mit einem gewissen Risiko verbunden, gibt Groß zu bedenken. „Es gibt einige große Unternehmen, die damit schon begonnen haben“, so der Analyst, „aber gerade Mittelständler müssen sich mit diesem Thema erst mal auseinander setzen, den möglichen Nutzen identifizieren und sich gut überlegen, welche Technologien sie überhaupt benötigen.“ Daher seien flexible Lösungen aus der Cloud ideal. „Wenn es nicht funktioniert, hat man wenigstens nicht in neue Server investiert.“

Für jeden Bedarf das passende Angebot

Der Cloud-Computing-Markt hat quasi für jeden Bedarf das passende Angebot – von reiner Rechenpower und IT-Infrastruktur, um eigene Anwendungen zu entwickeln, bis hin zu vollständigen Lösungen. Neben den klassischen IT-Anbietern wie Microsoft oder IBM nehmen nun verstärkt auch Industrieunternehmen das Cloud-Geschäft ins Visier. Diese konzentrieren sich dabei vor allem auf konkrete Anwendungen.

So haben sowohl Bosch als auch Siemens eigene Cloud-Plattformen für das Internet der Dinge (IoT) entwickelt. Mit Technologien aus seinem Cloud-Angebot Mindsphere will Siemens etwa Maschinen- und Anlagenbauer in die Lage versetzen, weltweit verteilte Maschinenflotten für Servicezwecke zu überwachen. Außerdem dient Mindsphere als Basis, auf der der Technikkonzern hauseigene Services bereitstellt – zum Beispiel für die vorausschauende Instandhaltung von Werkzeugmaschinen oder von integrierten Antriebssystemen.

Konzerne wie Siemens und Bosch bieten eigene Cloud-Lösungen

Auch Bosch nutzt seine Cloud-Plattform, um eigene Software-Dienste anzubieten. Kern des Angebots ist die IoT-Suite, die alle Funktionen umfassen soll, um Geräte, Anwender und Unternehmen zu vernetzen. „Wir sind jetzt ein Full-Service-Provider für Vernetzung und das Internet der Dinge“, sagte Bosch-Chef Volkmar Denner, als die Cloud-Plattform im vergangenen Jahr vorgestellt wurde. Die IoT-Suite umfasst unter anderem Werkzeuge für die Datenanalyse und zum Gerätemanagement. Dort lassen sich laut Anbieter zum Beispiel Regeln für automatisierte Entscheidungen hinterlegen – wenn zum Beispiel Maschinenzustände Verschleißmuster aufweisen. Auch hier lautet das Ziel, eine präventive Instandhaltung umzusetzen.

Predictive Maintenance – also die vorausschauende Instandhaltung – ist das Anwendungsszenario, das am häufigsten genannt wird, wenn es um neue Applikationen geht, die mithilfe von Cloud Computing nun möglich werden sollen.

Dafür nutzt auch Beckhoff die Cloud-Technik. Zum Portfolio des Unternehmens zählen Automatisierungsprodukte für eine standardisierte Kommunikation, die unter anderem mit der Cloud von Amazon Web Services bereitgestellt werden. Maschinenbauer, die diese nutzen, können damit den eigenen Endkunden Zusatzservices zu den gelieferten Maschinen anbieten. Sie können auf diese Weise Daten der Maschinen empfangen, die bei einem Unternehmen im Einsatz sind, um zum Beispiel deren Wartung zu optimieren.

Beckhoff ergänzt Automatisierungsangebot mit Datenanalyse in der Cloud

Zu den Services, die Beckhoff-Kunden in der Cloud nutzen, zählen sogenannte Supplement-Produkte zur hauseigenen Automatisierungsplattform Twincat, wie etwa das Analyse-Tool Twincat Analytics. „Twincat Analytics ist auf Datenanalyse-Aufgaben speziell für Maschinenbauer zugeschnitten“, erklärt Sven Goldstein, der bei Beckhoff als Produktmanager unter anderem für die Connectivity- und IoT-Produkte zuständig ist. Die Software sei etwa dafür geeignet, im Nachhinein einen Störfall an einer Maschine optimal nachvollziehen zu können, da sich sämtliche Prozess- und Produktionsdaten synchron zum Maschinenzyklus aufzeichnen lassen. Des Weiteren können diverse Algorithmen verwendet werden – zum Beispiel auch aus den Softwareprogrammen Matlab oder Simulink heraus generiert, um Predictive-Maintenance-Szenarien zu realisieren.

Daneben stellt aber auch AWS eigene Software bereit – wie Amazon Machine Learning –, welche die Analyseplattform ergänzen kann. Mit Amazon Machine Learning können Anwender laut Goldstein ein mächtiges und umfangreiches Werkzeug verwenden, um unter anderem neuronale Netzwerke zu realisieren.

Zentraler Informationsspeicher für die Instandhaltung

Cloud-Technik kann außerdem dazu dienen, neben den Maschinen auch die Unternehmen zu vernetzen. Dafür arbeitet BASF mit Softwerker SAP zusammen. Mithilfe von SAPs cloudbasiertem Netzwerk Asset Intelligence Network will der Chemiekonzern eine digitale Datenverbindung zu mehreren Herstellern und Dienstleistern sowie deren Daten zum jeweiligen technischen Wirtschaftsgut – also dem Asset – aufbauen. Auf diese Weise soll ein zentral verwalteter Informationsspeicher entstehen. Auch in diesem Fall geht es um Instandhaltung. Da alle Asset-Informationen zentral verfügbar sind, erhofft sich BASF die Effizienz seiner Engineering- und Instandhaltungsprozesse zu verbessern.

Techconsult-Mann Groß glaubt, dass es im Cloud-Markt künftig eine stärkere Kooperation der Anbieter geben wird. Die Lösungen der Industrieunternehmen werden auch auf den Plattformen der klassischen IT-Anbieter verfügbar sein. Ein Beispiel dafür ist Bosch. Dessen IoT-Suite kann mittlerweile auch auf AWS sowie auf der Cloud-Plattform Bluemix von IBM genutzt werden.

Sicherheit ist kein Hindernis mehr

Wenn über solche und andere Cloud-Lösungen Daten übertragen werden, spielt das Thema Sicherheit eine große Rolle. Schließlich handelt es sich teilweise auch um sensible Informationen.

Nur wenige Unternehmen sehen dies allerdings noch als Hindernis, Technik aus der Cloud zu nutzen. „Als wir vor zwei Jahren mit unseren IoT- und Analytics-Produkten gestartet sind, gab es bei dem einen oder anderen Kunden noch Bedenken hinsichtlich Cloud Computing – vor allem aus Gründen der Sicherheit“, berichtet Goldstein. Doch das habe sich mittlerweile geändert. „Die Kunden erkennen nun klar die Vorteile bei der Nutzung eines Public-Cloud-Anbieters im Vergleich zum klassischen Self-Hosting.“

Ein Cloud-Anbieter könne die Sicherheit der Daten zudem in der Regel besser gewährleisten, als das Anwenderunternehmen selbst, fügt Groß hinzu. „Mit Sicherheitsanforderungen wie zum Beispiel einer hochredundanten Datenhaltung sind die meisten Firmen überfordert“, erläutert der Analyst.

Deutschland in puncto Sicherheit als beliebter Standort für Rechenzentren

Dies sind aber nicht die einzigen Argumente, warum der Begriff Cloud Computing bei den Verantwortlichen in den Anwenderunternehmen keine Schweißausbrüche mehr verursacht. Die Anbieter haben die besonderen Befindlichkeiten und rechtlichen Rahmenbedingungen hierzulande akzeptiert – sowohl in Sachen Sicherheit als auch in puncto Datenschutz. Selbst die Cloud-Provider aus den USA betreiben Rechenzentren in Deutschland und garantieren, dass die Daten der hiesigen Unternehmen dort gespeichert werden. „Wenn man einen deutschen Standort braucht, findet man genügend Anbieter“, sagt Groß. Der Markt sei entsprechend breit.

„Für uns ist sehr wichtig, dass Amazon Web Services auch hierzulande Rechenzentren betreibt“, sagt Goldstein von Beckhoff. „Denn unsere Kunden legen großen Wert darauf, dass ihre Daten in Deutschland bleiben und hier gehostet werden.“

Laut Gonzalez arbeitet AWS mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) zusammen. AWS sei der erste Cloud-Anbieter, der nach BSI C5 zertifiziert ist. Der Anforderungskatalog Cloud Computing Compliance Controls Catalogue (kurz: C5) legt fest, welche Anforderungen Cloud-Anbieter erfüllen müssen. Microsoft hat sogar ein Datentreuhändermodell entwickelt, um die deutschen Anwender zu beruhigen. Dabei gibt der IT-Anbieter die Kontrolle seiner Rechenzentren an den Betreiber T-Systems ab. Nur unter klar definierten Bedingungen kann Microsoft auf die dort gelagerten Kundendaten zugreifen – etwa wenn es der Kunde erlaubt oder das deutsche Recht es verlangt.

Hohe Sicherheitsstandards in Deutschland als Maß für globale Rechenzentren

Für die Cloud-Anbieter mögen die Hürden im deutschen Markt somit höher sein als anderswo. Weltweit gesehen kann dies allerdings auch ein Vorteil sein. Gonzalez berichtet, dass die hohen Ansprüche in Sachen Sicherheit und Datenschutz, die in Deutschland existieren, auch einen Effekt auf das Angebot des US-Konzerns insgesamt haben. „Wir sammeln die Anforderungen aus allen Ländern und setzen diese dann für alle Kunden weltweit um“, erklärt Gonzalez. Eine neue Richtlinie, die zum Beispiel in Asien erfüllt werden muss, wird somit auch auf den anderen Kontinenten umgesetzt. „Die hohen Standards, die Deutschland von uns erwartet, haben somit dazu geführt, dass unsere Infrastruktur weltweit verbessert werden konnte. Denn sie genügt nun überall den deutschen Anforderungen“, erklärt Gonzalez.

Auch Groß sieht das positiv. „Für die Cloud-Provider kann es durchaus ein Qualitätsmerkmal sein, wenn sie sagen können: Wir sind so gut, wir erfüllen sogar die deutschen Sicherheitsstandards.“

Geteilte Verantwortung

Wer IT-Leistung aus der Cloud nutzt, kann sich in Sachen Sicherheit aber nicht zurücklehnen und dem Dienstleister die gesamte Arbeit überlassen. Denn der ist nicht für alles zuständig. Für die meisten Cloud-Verträge gilt eine Teilung der Verantwortlichkeiten. Der Anbieter kümmert sich um die Sicherheit der grundlegenden Infrastrukturkomponenten. Der Anwender ist unter anderem für die Daten und Software-Komponenten zuständig.

Auch bei AWS gilt diese Arbeitsteilung. „AWS ist verantwortlich für den Betrieb der sicheren Infrastruktur“, sagt Gonzalez. Dazu zählen etwa die Gebäude- und Netzwerksicherheit sowie die der Hard- und Software-Komponenten, die der Anbieter betreibt. Dem Nutzer obliegt unter anderem die komplette Kontrolle über das Betriebssystem der virtuellen Maschinen. „Daher muss er selbst dafür sorgen, dass die dafür notwendigen Security-Patches eingespielt werden“, führt Gonzalez aus.

AWS bietet seinen Anwendern Best Practices und stellt Sicherheitswerkzeuge bereit. Es liege jedoch in der Verantwortung des Kunden, diese auch einzusetzen, so der Solutions Architect. AWS würde die Kunden zudem darauf hinweisen, ihre Daten zu verschlüsseln, fügt Gonzalez hinzu. „Wir glauben, dass dies der beste Weg ist, die Informationen zu schützen.“

Derart abgesichert kann Cloud Computing auch weiterhin eine Erfolgsgeschichte in deutschen Unternehmen schreiben.

Unsere Whitepaper-Empfehlung


Hier finden Sie mehr über:
Industrieanzeiger
Titelbild Industrieanzeiger 6
Ausgabe
6.2024
LESEN
ABO
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de