Startseite » Technik » Fertigung »

Prozess-Symphonie

Fertigungstechnik: Vernetzung auf allen Ebenen sorgt für Datentransparenz
Prozess-Symphonie

Die Produktion von Kleinserien und Einzelteilen mit der Effizienz einer Massenfertigung – damit wollen Aachener Forscher die Zukunft von Hochlohnstandorten sichern. Eine vollständige Vernetzung aller Prozessschritte, intelligentere, selbstoptimierende Systeme und neue Denkweisen sind die Voraussetzung dafür.

Schönheit, Harmonie, Wohlklang – ein gutes Orchester macht aus einem Konzert ein unvergessliches Erlebnis. Das Ganze ist mehr als die Summe gekonnt gespielter Instrumente. Ähnlich ist das in der Fertigungstechnik. Wie ein Konzert gleicht ein Produkt einem Kunstwerk. Nur wenn alle Beteiligten – von der Entwicklung über den Einkauf, die Fertigung, das Marketing, den Vertrieb bis hin zum Service – perfekt zusammenspielen, wird aus einem vielversprechenden Produkt auch ein erfolgreiches.

In einer Zeit globalen Wettbewerbs und gesättigter Märkte erwarten die Kunden immer bessere Leistungen vom „Orchester“. Die Modellzyklen werden kürzer, die Kundengruppen in feinere Segmente unterteilt. Die Folge: sinkende Stückzahlen pro Modell bei steigenden Kosten für Forschung und Entwicklung je gefertigter Einheit. Deshalb müssen produzierende Unternehmen die Dynamik ihrer Märkte über eine große Anzahl von Systemelementen hinweg beherrschen.
Aus den individualisierten Prozessketten und der hohen Marktdynamik resultieren zudem hohe Anforderungen an die Auftragssteuerung. Auch sie lassen sich nur mit Hilfe einer flexiblen Vernetzung der Produktionsschritte entlang der Lieferkette bewältigen. Doch die heute eingesetzten Methoden der Fertigungsteuerung richten sich nach der Verfügbarkeit der Informationen, nicht nach dem aus der Prozessdynamik resultierenden Steuerungsbedarf. „Selbst heute kommunizieren die Unternehmens- und die Fertigungssteuerung noch via Papier. Diese Kommunikationslücke schnellst möglich zu schließen, daran arbeiten führende Anbieter derzeit“, berichtet Drazen Veselovac. Das Ziel seien bessere innerbetriebliche Rückmeldungen sowie die überbetriebliche Transparenz bei Lieferproblemen, ergänzt der Oberingenieur, der am Werkzeugmaschinenlabor (WZL) der RWTH Aachen die Abteilung Überwachung und Abtragen leitet.
Mit der ganzheitlichen Betrachtung aller mit der Produktion zusammenhängenden Systeme und Abläufe befasst sich auch der Exzellenz-Cluster „Integrative Fertigungstechnik für Hochlohnländer“ (www.production-research.de). Verschiedene Forschungsinstitute arbeiten hier interdisziplinär an den vier Themenfeldern:
  • komplexitätsgerechte Konfiguration,
  • Virtualisierung und Vernetzung von Prozessen und Systemen in der Produktion,
  • selbstoptimierende Systeme sowie
  • hybride Fertigungstechnologien.
Die einzelnen Themen schweben zwar schon länger im Raum, neu sind jedoch die ganzheitliche Betrachtung dieser Bereiche und der Versuch, sie zu einem integrierten System zu vernetzen.
„Die technischen Voraussetzungen für eine durchgängige Vernetzung der Fertigung sind prinzipiell gegeben“, sagt Werner Herfs. „Die Frage lautet: Wie groß ist der Aufwand, um die benötigten Daten einer planerischen Instanz für die Weiterverarbeitung bereitzustellen? Zudem müssen erst noch Schnittstellen geschaffen werden, um die Informationen interdisziplinär zu generieren und auszutauschen“, nennt Herfs die derzeitigen Hürden. Der Oberingenieur leitet am WZL-Lehrstuhl für Werkzeugmaschinen die Abteilung Steuerungstechnik und Automatisierung.
Einen Lösungsansatz stellt die digitale Fabrik dar. Sie bezeichnet ein umfassendes Netzwerk digitaler Modelle, Methoden und Werkzeuge, die mit Hilfe eines durchgängigen Datenmanagements zusammengeführt werden. Das Ziel ist die ganzheitliche Planung, Evaluierung und laufende Verbesserung aller wesentlichen Strukturen, Prozesse und Ressourcen in der realen Fabrik. Bei der Einführung einer digitalen Fabrik ergeben sich jedoch zahlreiche organisatorische und technische Herausforderungen. Eine der größten sieht Herfs im Aufbau und in der Strukturierung der Daten, die dann entlang des Product-Lifecycle-Management-Prozesses mit weiteren Informationen angereichert werden. Diese Vorgehensweise stelle die klassische Entwicklungskette in Frage und baue ganz auf einen interdisziplinären – also mechatronischen – Ansatz. „Doch nicht nur über die Strukturierung der Daten, sondern auch über die Frage, wer sie in welcher Güte und zu welchem Zeitpunkt bereitzustellen hat, müssen wir noch – gemeinsam mit der Industrie – intensiv nachdenken.“
Unternehmen seien menschliche Systeme und entsprechend organisiert, gibt Dr. Sebastian Gottschalk zu bedenken. Der Oberingenieur, der am Lehrstuhl für Produktionssystematik des WZL die Abteilung Produktionsmanagement leitet, ergänzt: „Eines der Probleme besteht darin, dass Planer oft Ansätze entwerfen, die in der Praxis unbrauchbar sind. Sie vergessen zu häufig, dass Menschen nicht nach Vorgaben arbeiten, die sie nicht erfüllen können.“ Die Datenmenge und -vielfalt, die es zu beherrschen gelte wachse ständig. Permanent seien Teilsysteme zu optimieren. „Die Zusammenhänge komplett zu überschauen wird daher immer komplexer.“ Gleichzeitig steigen die Anforderungen an die Verfügbarkeit der kapitalintensiven Fertigungsmittel – um sich zu rechnen, sollten sie möglichst rund um die Uhr für Wertschöpfung sorgen.
Durch die Simulation von Maschinen, Prozessen und Abläufen lassen sich Bearbeitungsaufgaben bereits in der Planungsphase untersuchen. Die gewonnenen Informationen etwa über die erforderliche und mögliche Werkstückgenauigkeit, die Oberflächenqualität oder die zu erwartende Produktivität helfen, Prozesse effizienter zu gestalten und zu überprüfen. Obwohl die Simulation einzelner Module – etwa die 3D-Simulation in der Konstruktion oder die Kollisionsvermeidung in Werkzeugmaschinen – bereits seit längerem Stand der Technik sind, ist das vollständige Schließen der Simulationskette in der Praxis bislang noch nicht gelungen und in näherer Zukunft auch nicht zu erwarten. Der Grund dafür: Wegen der teilweise unterschiedlichen Modellabstraktionen einzelner Glieder der Kette ist die Kopplung der Teilmodelle bisher nur bedingt möglich. Ein weiterer Entwicklungsschritt sind die so genannten virtuellen Maschinen (VM). Im Unterschied zur reinen Simulation stellen sie eine exakte Kopie des realen Vorbilds dar, die sich genauso bedienen lässt und die gleichen Funktionen bietet wie die echte Maschine. Die VM – erste Systeme sind vor gut zwei Jahren auf den Markt gekommen – basiert auf den 3D-CAD-Daten des Maschinenherstellers und der originalen Steuerung.
Um die vollständige Vernetzung der Prozesskette zu beherrschen, ist eine komplexitätsgerechte Konfiguration der Produktionstechnik gefragt. Der Hintergedanke dabei ist, Systeme und Abläufe zu modularisieren. In der Produktgestaltung ist diese Vorgehensweise längst etabliert, auf Prozessebene konnte sie sich noch nicht durchsetzen. Selbst in der Vorreiterbranche Automobilbau liegt hier noch einiges Potenzial brach. Zwar existierten bereits anerkannte Technologiemodelle, doch die seien vielfach noch nicht mit Leben gefüllt, gibt Sebastian Gottschalk zu bedenken. Und Steuerungsfachmann Herfs ergänzt: „Um im flexiblen Produktionsbetrieb Optimierungspotenziale zu erschließen, müssen wir in die mechatronischen Systeme mit ihren internen Ablaufsteuerungen noch erheblich mehr Intelligenz einbauen.“
Sich verändernde Informationen und Parameter aufnehmen und verarbeiten sowie auf deren Basis verbessernd reagieren, das können so genannte kognitive Systeme. Der Gedanke, Produktionstechnik – in einem eingeschränkten Rahmen – selbst über Veränderungen und Maßnahmen entscheiden zu lassen, stellt eine bedeutende Innovation dar. Der bislang große menschliche Engineering-Aufwand ließe sich so erheblich reduzieren. Und durch die Vernetzung mit anderen Ebenen der Fertigung könnten die fortlaufend aufgenommenen Daten und Parameter die Transparenz der Prozesse deutlich erhöhen. Solche selbstoptimierenden Systeme bilden die Basis künftiger Produktionssysteme, die individuelle Produkte so effizient fertigen sollen wie Massenartikel.
Die Idee dahinter: Die Abläufe in der integrativen Produktionstechnik sind so dynamisch und komplex, dass sie sich nicht mehr detailliert von oben nach unten durchplanen lassen. Abhilfe schaffen Regelkreise oder Kaskaden von Regelkreisen. So könnten einzelne Komponenten einer Werkzeugmaschine ihren jeweiligen Status an die Maschinensteuerung melden, diese gibt ihren Zustandsbericht an die Steuerung der Fertigungseinheit weiter und die wiederum an das System, das die Fabrik überwacht. Teile des Gesamtsystems ergeben sich dann während des Laufs von selbst. Ansätze in dieser Richtung gibt es bereits – sowohl in der Zusammenarbeit zwischen Mensch und Maschine als auch die Technik betreffend – etwa die Sensorik, mit deren Hilfe Maschinen bereits heute auf bestimmte Umstände reagieren können. „Die erforderliche Messtechnik ist inzwischen preisgünstig verfügbar“, sagt Dr. Reinhard Freudenberg. Defizite sieht der Oberingenieur vom Lehrstuhl für Fertigungsmesstechnik und Qualitätsmanagement noch in der Interpretation der Messergebnisse im Hinblick auf eine gegebenenfalls nötige Veränderung der Prozessparameter, die idealerweise automatisch erfolgen sollte. Er betont, dass der Zusammenhang zwischen Prozessparametern und Messgrößen noch intensiv untersucht werden müsse. „Es gilt, die Intelligenz auszubauen, die diese automatischen Eingriffe ermöglicht.“ Das sei umso wichtiger, je näher man den physikalischen Grenzen der Prozesse komme, weil sich Fehlinterpretationen dann zunehmend kritisch auswirkten. Einen Entwicklungsschub erwartet Produktionsmanager Gottschalk durch die Automatisierungswelle in der Informationstechnik. „Standardisierungseffekte und sinkende Kosten durch den Einsatz PC-basierter Systeme lassen sie gerade erst anwachsen.“
Maschinenseitig soll die Integration weiterer Technologien in eine Maschine oder ein Fertigungssystem die Prozesskette weiter verkürzen. Der Einsatz von Lasern in Werkzeugmaschinen, der das Markieren, Härten oder Fügen in einem Arbeitsgang mit dem Zerspanen erlaubt, ist ein Beispiel für hybride Anlagen. Aber auch Automatisierungslösungen, die heute meist nur bei großen Fertigungslosen wirtschaftlich sind, sollen sich künftig schon ab Stückzahl 1 rechnen. Dazu müssen nicht-wertschöpfende Tätigkeiten wie die Planung und die Programmierung von Prozessen sowie die Inbetriebnahme oder die Wartung von Maschinen und Anlagen im gesamten Lebenszyklus reduziert werden. „Das lässt sich nur verwirklichen, wenn auch die Einzelkomponenten über eine höhere Intelligenz verfügen und quasi ein Wissen über ihre Möglichkeiten und ihre Umgebung in sich tragen“, nennt Werner Herfs die Voraussetzung. Zudem müssten sich die PC-basierte Maschinen- und Anlagentechnik herstellerübergreifend einfacher handhaben lassen und manuelle planerische Tätigkeiten größtenteils automatisiert werden.
Ein wichtiger Aspekt in einer vernetzten Welt ist die Datensicherheit und die Robustheit der Systeme. „Wenn alles zusammenhängt, pflanzen sich Fehler fort. Jede Änderung hat ihre Auswirkungen“, beschreibt Sebastian Gottschalk das Risiko. Aber auch hier helfe die Modularität. „Dadurch ist es möglich, Systeme so einzurichten, dass sich beispielsweise ein Virus nur im jeweiligen Modul festsetzen, aber nicht ausbreiten kann.“
Durch den Baukastengedanken können die Nutzer vernetzter Produktionssysteme gezielt festlegen, welche Informationen für wen relevant sind und welche Module entsprechend freigeschaltet werden sollen. Insofern unterscheidet sich dieses moderne Konzept der Datentransparenz von früheren Vorstellungen, die davon ausgingen, dass alle Informationen für jeden Beteiligten zugänglich sein müssen. „Hier gilt es zu berücksichtigen, dass der Datenaustausch nicht mehr nur zwischen Partnern in München und Straubing stattfindet, sondern beispielsweise zwischen Unternehmen in Deutschland und China oder Indien. Das verschärft die Anforderungen sowohl hinsichtlich der Schnittstellenproblematik als auch in Sachen Datensicherheit und Schutz des geistigen Eigentums“, begründet Prozessüberwachungsspezialist Drazen Veselovac die neue Denkweise. Und Sebastian Gottschalk ergänzt: „Alle Beteiligten müssen sich fragen, welche Informationen sie brauchen und welche sie zu geben bereit sind. Und nur das wird angefordert oder freigeschaltet.“
Die Vernetzung der Unternehmensprozesse darf jedoch nicht mit der Auslieferung eines Produkts enden. Auch der Service sowie das Garantie- und Kulanzwesen müssen integraler Bestandteil sein. Derzeit konzentrieren sich die meisten Unternehmen auf vorbeugende Maßnahmen der Qualitätssicherung. Die Erfahrung der Serviceabteilungen und die Reaktionen der Kunden fließen selten direkt in den Regelkreis ein. Doch wer diese Informationen nicht nutzt, vergibt die Chance,
  • Fehler aus den zur Verfügung stehenden Felddaten zu identifizieren,
  • Fehler schnellst möglich und nachhaltig zu beseitigen und
  • Konsequenzen abzuleiten, um seine aktuellen und künftigen Produkte zu verbessern.
„Um den Standort zu sichern, müssen wir Werte gekonnt generieren und komplexe Fertigungsprozesse sicher am Limit führen“, betont Drazen Veselovac. Wem das gelinge, der könne einen erheblichen Mehrwert bieten und so seine Kunden an sich binden.
Erfolgreiche Unternehmen dürfen nicht von neuen Technologien und Marktentwicklungen überrascht werden. Um den bestmöglichen Nutzen aller Ressourcen fürs ganze Unternehmen zu erzielen, müssen Technologieplanungen zunehmend bereichsübergreifend abgestimmt werden. Unternehmer sollten festlegen, wo für den eigenen Betrieb die entscheidenden Handlungsfelder liegen, wo es Sinn macht, sich in eine Vorreiterrolle zu begeben, und wo man wartet, bis sich Standards entwickelt haben, die dann relativ leicht zu implementieren sind.
Der Zeitraum, bis eine durchgängige Vernetzung ein harmonisches, klangvolles Zusammenspiel aller Unternehmensbereiche ermöglicht – darin sind sich die vier Wissenschaftler einig –, sei jedoch eher in einer Dekade als in Jahresschritten zu messen. Dennoch sei es wichtig, die Entwicklung im Blick zu behalten, den Nutzwert von Teillösungen fürs eigene Unternehmen zu prüfen und deren Einsatz an einer klaren, zukunftsorientierten Strategie auszurichten.
Kundenreaktionen müssen in Datenpool einfließen

Neue Technologien
Virtuelle Prozesse, selbstoptimierende Systeme und hybride Fertigungstechnologien sind Ansätze, um die Effizienz der Produktion künftig erheblich zu steigern. Das Ziel ist, individuelle Produkte so kostengünstig wie Massenartikel herzustellen. Während Insellösungen verfügbar sind, arbeiten Forscher derzeit daran, Systeme und Prozesse zu vernetzen. Dadurch sollen benötigte Daten für alle Beteiligten jederzeit zugänglich sein.

Modelle machen Prozesse transparent

Prozessüberwachung

In der Massenproduktion nutzen Prozessüberwacher derzeit Systeme, die mit Hilfe mehrerer Referenzprozesse eingefahren werden. Die Schwierigkeit bei der Fertigung von Kleinserien oder gar Einzelteilen besteht darin, dass fürs Teachen oft mehr Prozessdurchgänge nötig sind als für die eigentliche Produktion. „Deshalb wollen wir künftig mit Modell-basierten Systemen arbeiten“, sagt Drazen Veselovac. Der Prozessspezialist vom Werkzeugmaschinenlabor der RWTH Aachen gibt jedoch zu bedenken, dass diese Modelle sehr komplex seien und deshalb so vereinfacht werden müssten, dass sich Abläufe in Echtzeit überwachen lassen. Die Voraussetzung dafür: Man muss das gesamte abzubildende Fertigungssystem – beim Fräsen etwa besteht es aus Maschine, Werkzeug, Spannmittel, Kühlschmierstoff und Werkstück – verstehen und beherrschen, mit allen thermischen, statischen und dynamischen Einflüssen. „Außerdem muss bekannt sein, wie man auf anormale Prozesszustände zu reagieren hat. Ist all das gegeben, lassen sich künftig beliebig komplexe Prozesse beherrschen.“
Je nach gewünschter Aussagefähigkeit gilt es den Detaillierungsgrad der verwendeten Teilmodelle sowie deren sinnvolle Kopplung festzulegen. Nur wenn die Abstraktionsstufe zur Problemstellung passt, bietet die Simulation gegenüber einem praktischen Versuch Vorteile. Und nur dann sind sinnvolle Rechenzeiten möglich, die auch Optimierungsschleifen erlauben.
Derzeit lassen sich allerdings nur einzelne Kenngrößen über eine Gut-Schlecht-Beurteilung hinaus nutzen, so dass eine Aussage darüber möglich ist, welcher Fehler an welcher Stelle des Prozesses aufgetreten ist. Die Kenngrößen Kraft und Beschleunigung liefern derzeit die zuverlässigsten Ergebnisse. Im nächsten Schritt arbeiten die Forscher an Modellen für thermisch basierte Systeme. hw

Datenintegration im Unternehmen
Enterprise Ressource Planning (ERP) Systeme beinhalten auch Module für die Produktionsplanung und -steuerung. Traditionell beziehen sie jedoch die operative Ebene nicht mit ein. Deshalb wurden Manufacturing Execution Systeme (MES) als Bindeglied zwischen der Fertigung (Prozessebene) und dem ERP-System (Koordinierungsebene) konzipiert. Über sie sollen sich alle für die Fertigung relevanten Daten integrieren und rückkoppeln lassen. Ihnen obliegt unter anderem der Soll-Ist-Abgleich mit der Betriebsdatenerfassung (BDE) und der Maschinendatenerfassung (MDE).

„Intelligente Standards fehlen noch“

Nachgefragt

Inwieweit können Datensysteme unterschiedlicher Unternehmensbereiche bereits kommunizieren?
In den vergangenen Jahren wurden deutliche Fortschritte erzielt. Bisherige Insellösungen kommunizieren zu lassen, steht seit einiger Zeit auf der Agenda vieler Unternehmen. Auch verschiedene Dienstleister treiben das voran. Ein Beispiel sind bidirektionale Schnittstellen zwischen CAD-/PDM-und ERP-Systemen. Das Erreichte ist aber erst ein kleiner Schritt auf dem Weg zum Informationssystem der Zukunft. Defizite in der Durchgängigkeit limitieren noch die Effizienz der Prozesse.
Welche Voraussetzungen fehlen zur kompletten Vernetzung noch?
Gute und sinnvolle Konzepte sind heute grundsätzlich bekannt, müssen jedoch intensiver verfolgt werden. Beispiele sind das Product Lifecycle Management und die virtuelle Fabrik. Der dem PLM zugrunde liegende Kerngedanke wird in der Regel noch gar nicht verfolgt. In der betrieblichen Anwendung beschränken sich PLM-Konzepte oftmals leider nur auf das Datenmanagement in F&E und tragen zur betrieblichen Prozessintegration nur wenig bei. Grundsätzlich sind für einheitliche Daten- und Informationsplattformen im Unternehmen zwei Stoßrichtungen denkbar: monolithische Systeme, die alle benötigten Funktionen zusammenführen, oder geschickt integrierte Einzelsysteme. Nach unseren Beobachtungen werden künftige Konzepte auf einer heterogenen Systemwelt aufbauen. Für die Einzelsysteme werden noch intelligente Standards und Quasi-Normen benötigt.
Bis wann rechnen Sie mit der Marktreife durchgängiger Systeme?
Bis zur unternehmensweiten Integration aller Datenstandards ist es noch ein weiter Weg. Für den erfolgreichen Einsatz sind neben den eigentlichen IT-Lösungen noch weitere Faktoren erfolgskritisch: Heutige Unternehmensstrukturen werden noch zu einem Großteil durch bestehende Schnittstellen und Systemgrenzen mitbestimmt. Maximale Datentransparenz und Wandlungsfähigkeit bedeuten auch die Aufgabe von Inseldenken und den Verlust von Hoheitsgebieten.
Worauf ist beim Einführen moderner Datensysteme zu achten?
Entscheidend ist, sich klare Ziele zu setzen und daraus transparente Prioritäten abzuleiten. Wer in einem Satz zum großen Wurf ansetzt, wird sich erfahrungsgemäß übernehmen. Die wirklichen Probleme im betrieblichen Alltag müssen gut verstanden werden, um gezielt an den Lösungen zu arbeiten, die heute das größte Potenzial versprechen. Wichtig ist zudem, parallel auch eine transparente Vision für den IT-Bebauungsplan der Zukunft dokumentiert zu haben, und alle Lösungen dieser Strategie unterzuordnen.
Werden solche Systeme auch für kleine Betriebe interessant sein?
Neue, offene Konzepte werden zunehmend für eine breite Basis von Unternehmen interessant. Unabhängig von der Unternehmensgröße muss jeder Anwender auf Basis heutiger Trends eine klare Vision seines Informationssystems der Zukunft haben. hw
Unsere Whitepaper-Empfehlung
Industrieanzeiger
Titelbild Industrieanzeiger 5
Ausgabe
5.2024
LESEN
ABO
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de