Firmen im Artikel
Aachener Forscher arbeiten daran, komplexe Fertigungsabläufe in Echtzeit zu optimieren. Die Lösung soll über heute gängige Ansätze weit hinausgehen. ❧ Mona Willrett
Im Rahmen des Leistungszentrums „Vernetzte Adaptive Produktion“ arbeiten drei Aachener Fraunhofer-Institute an anpassungsfähigen Systemen für eine individualisierte Produktion in kleinen Losen. Mit deren Hilfe sollen Prozessketten schnell und kostengünstig zu planen, auszuführen und immer wieder neu zu konfigurieren sein. Das Ziel ist eine flexiblere und effizientere Fertigung technischer oder biologischer Produkte. Dazu sollen alle beteiligten Maschinen, Produktionsanlagen, Datenbanken und Simulationssysteme miteinander kommunizieren. Der Mensch kann über mobile Geräte wie Tablets oder Datenbrillen in Echtzeit mit allen Subsystemen interagieren, diese steuern oder Produktionsdaten abfragen.
Um das zu erreichen, wollen die Forscher ein möglichst vollständiges virtuelles Abbild der jeweiligen Prozesszustände schaffen. Dazu kooperieren die Fraunhofer-Institute für Produktionstechnologie IPT, für Lasertechnik ILT sowie für Molekularbiologie und Angewandte Oekologie IME mit der RWTH Aachen und Industriepartnern. Zusammen mit Datenbankarchitekturen, Big-Data-Werkzeugen und Cloud-Diensten soll dieses digitale Abbild helfen, konkrete Anwendungen zu optimieren. Als Basis dafür entwickeln Forscher am IPT Software-Bausteine, die in der Planung und Simulation von Fertigungsprozessen unterschiedliche Funktionen übernehmen und sich am Ende – quasi als Plug-and-Produce-Lösung – schnell und einfach zu einer größeren Produktionslösung kombinieren lassen.
Die Prozesse werden permanent optimiert
So ermitteln einzelne Software-Module etwa, welche Strategie für eine bestimmte Bearbeitung die beste und wirtschaftlichste ist. Die Ergebnisse werden während des Produktionsprozesses immer wieder neu verknüpft und die Abläufe bei Bedarf angepasst. Die Entscheidung über den nächsten Bearbeitungsschritt fällt somit nicht mehr auf der Basis von Konstruktionsdaten, sondern aufgrund realer Gegebenheiten nach den Voroperationen. Dabei wird beispielsweise auch die ideale Reihenfolge der verschiedenen Bearbeitungsschritte hinterfragt. „Natürlich gibt es Anwendungen, bei denen das von vornherein klar ist“, sagt Dr. Kristian Arntz, Leiter der Abteilung ‚Nichtkonventionelle Fertigungsverfahren‘ am IPT. „Oft lässt sich das aber nicht in schwarz oder weiß einteilen. Dann beruht die Entscheidung bis heute auf dem Bauchgefühl oder der Erfahrung des Fertigungsverantwortlichen.“ Mit ihrem System wollen die Wissenschaftler Unsicherheiten beseitigen und die Prozesskette anhand von Fakten und Messwerten permanent optimieren.
„Durch unser Konzept mit Modulen, die direkt auf die Maschinensteuerung Einfluss nehmen, kann die Entscheidung über einzelne Prozessschritte sehr spät getroffen und immer wieder an veränderte Gegebenheiten angepasst werden“, erläutert Dr. Thomas Bobek, der das Leistungszentrum „Vernetzte Adaptive Produktion“ leitet. Dadurch werde der Gesamtprozess effizienter, wirtschaftlicher und flexibler. Beispielsweise könne das System bei einem Maschinenausfall helfen, schnell und zielgerichtet zu reagieren. „Das ist zwar heute zum Teil auch schon möglich, aber in der Regel mit hohem planerischen Aufwand verbunden“, so Bobek weiter. „Kern unserer Forschung ist deshalb die Frage, welche Informationen zu betrachten sind, um möglichst schnell die ideale Alternativroute zum Ziel zu finden.“
Big-Data-Auswertungen reichen nicht
Die entscheidende Basis für das bestmögliche Ergebnis sind jedoch nicht die Software-Module an sich. Die Kompetenz liegt im Vernetzen der Module und damit in den fertigungstechnischen Zusammenhängen, die den Gesamtprozess bestimmen. Wesentliche Fragestellungen sind dabei:
- Welche Daten werden benötigt, um Prozesse und Teilprozesse zu beurteilen?
- Wie lassen sich diese Informationen aus Maschinen auslesen?
- Wie sind sie zu interpretieren?
Verschiedene Untersuchungen zeigen laut Kristian Arntz, dass reine Big-Data-Auswertungen nicht reichen, um Fertigungsprozesse zu optimieren. „Wenn wir bei komplexen Abläufen echte Verbesserungen erzielen wollen, brauchen wir seriöse Prozessmodelle. Eine reine Big-Data-Auswertung führt nur zu trivialen Ergebnissen.“ Ohne relevante Informationen über den jeweiligen Kontext gehe der Nutzen selbst großer Datenmengen gegen Null. Um zu verdeutlichen, was er meint, gibt der Forscher ein Beispiel: Soll die Oberflächengüte eines generativ erzeugten Bauteils qualitativ und zugleich wirtschaftlich optimiert werden, reiche es nicht, viele Daten zu sammeln, um den generativen Prozess zu optimieren. Vielmehr sei umfassendes Know-how erforderlich, um erfolgversprechende Prozessalternativen zu erkennen. Im genannten Beispiel kann es zielführender sein, das Werkstück zwar generativ aufzubauen, die Oberflächen dann aber fräsend nachzubearbeiten.
Wie ein anpassungsfähiges Produktionssystem konkret aussehen werde, lasse sich nicht allgemein beschreiben, sagt Thomas Bobek. „Das hängt von der jeweiligen Anwendung ab. Aber viel wichtiger als die Frage nach dem Gesamtsystem ist, wie wir es schaffen, die Einzelkomponenten optimal zusammenarbeiten zu lassen.“ Interessant sei in diesem Zusammenhang auch die Strategie, mit deren Hilfe die nötigen Informationen erarbeitet werden. So könne etwa eine Werkzeugmaschine zu gleichen Kosten mit wenigen aufwendigen Sensoren oder mit vielen preisgünstigen Datenaufnehmern ausgestattet werden. Wann der jeweilige Weg die wertvolleren Ergebnisse liefere, sei ein Aspekt, den es noch zu klären gelte.
Daten jedem Bauteil individuell zuordnen
Doch um den maximalen Nutzen aus den erfassten Daten zu ziehen, muss es auch möglich sein, diese individuell einzelnen Werkstücken zuzuordnen. „Dabei muss man sich vom Gedanken lösen, die Informationen auf dem Werkstück zu speichern“, meint Bobek. Viel eher würden die Bauteile individuell gekennzeichnet, so dass sie eindeutig identifizierbar sind. Die Informationen – etwa, wie das Werkstück zu bearbeiten ist oder welche Besonderheiten in der Fertigung aufgetreten sind – werden dann in einer Datenbank gespeichert und können bei Bedarf wieder abgerufen werden. Für einzelne, komplexe Bauteile wie im Flugzeugbau ist das zwar schon heute gängige Praxis, aber für Massenteile – etwa im Automobilbau – seien die Verfahren noch nicht praktikabel. „Künftig müssen aber für jeden Achsschenkel sämtliche Prozessinformationen einfach abrufbar sein“, so der Forscher. „Das Ziel dabei ist, bei Abweichungen von den Sollwerten sofort reagieren und die Folgebearbeitung anpassen zu können. Außerdem sind diese Informationen sowohl für den Konstrukteur als auch für den Servicetechniker wertvoll.“
Bis diese Vision allerdings Realität wird, haben Forscher noch einige Aufgaben zu lösen. Neben den viel diskutierten Schnittstellen- und Datenbankfragen, betrifft ein großer Block die Technologiemodelle. Sie müssen optimiert und so aufbereitet werden, dass sie leicht nutzbar sind. Wichtig ist dabei, dass die Informationen in einer zentralen Datenbankstruktur abgelegt werden, auf die alle Beteiligten Zugriff haben und in die alle hineinarbeiten.
Unsere Webinar-Empfehlung
Der Summit richtet sich an Entscheider aus den Bereichen Fertigung, Instandhaltung, Fabrikautomatisierung, Automatisierung, Intralogistik und Fabrikplanung, Netzplanung, Netzwerkinfrastruktur, Innovationsmanagement. Daneben sind Hersteller aus den Bereichen Maschinenbau, Sensorik,…
Firmen im Artikel
Teilen: