Die Simulation von Prozessen bei der Lasermaterialbearbeitung ist in den letzten Jahren immer besser geworden. Leider ist sie hochkomplex und erfordert viel Rechenzeit. Experten vom Fraunhofer-Institut für Lasertechnik ILT haben nun eine Simulationssoftware entwickelt, die Prozesse erstmals in Echtzeit berechnet.
Quelle: Fraunhofer ILT
Eine verlässliche Simulation von Laserprozessen war bislang eine Sache für Experten. Mit ausgefeilten Software-Paketen und viel Zeit auf Computerclustern können sie inzwischen relativ verlässlich verschiedenste Prozesse simulieren. Für den Anwender in der Werkhalle ist das allerdings kaum geeignet. Dort behilft man sich beim Einrichten neuer Prozesse eher mit Technologietabellen der Systemanbieter.
Die Simulations-Experten am Fraunhofer-Institut für Lasertechnik ILT haben eine neue Software entwickelt, die deutlich weniger Ressourcen benötigt und deshalb sogar auf Tablets und Smartphones läuft. Dabei können einzelne Parameter mit Schiebern verändert werden – das Simulationsergebnis erscheint daneben und verändert sich in Echtzeit.
Möglich wird das durch eine anwendungsspezifische Reduktion der Rechenmodelle. Dabei werden abhängig von der jeweiligen Applikation bestimmte Vereinfachungen eingeführt, die die Komplexität der Rechnungen drastisch reduziert und so viel schneller zu einem Ergebnis führen.
Simulieren für Fortgeschrittene: Metamodellierung
Die hohe Geschwindigkeit bei der Simulation eröffnet allerdings noch ganz andere Optionen. Für komplexe Simulationen mit vielen Parametern kann man eine Metamodellierung angehen. Dabei werden mit den Parametern und mehreren Bewertungskriterien für Prozess- und Produktqualität hochdimensionale Datensätze generiert. Daraus lassen sich wiederum einzelne Prozesslandkarten (Hyper Slices) erstellen, die die Abhängigkeit der Ergebnisse von einzelnen Parameterpaaren aufzeigen. Die Qualität des Ergebnisses wird dabei mit einer Farbkodierung dargestellt, so dass optimale Parameter sofort sichtbar werden.
Mit dieser erweiterten Simulation lassen sich durch mathematische Manipulation der Datensätze globale und lokale Extremwerte finden, also zum Beispiel Parametersätze für beste und schlechteste Qualität. So eine simultane Optimierung von mehreren Parametern ist mit experimentellen Methoden kaum möglich. Neue Methoden wie die des „Iterative Design“ werden dadurch in der Fertigung erheblich beschleunigt.
Inzwischen gibt es bereits weitergehende Überlegungen, denn aufwändige Berechnungen gibt es in vielen Bereichen der Industrie. Die Simulation von Crashtests in der Automobilindustrie beispielsweise beansprucht immer noch erhebliche Rechnerkapazitäten. Die Übertragung des Prinzips der reduzierten Modelle verspricht auch dort erhebliche Einsparungen. (bö) •
Unsere Whitepaper-Empfehlung
Benutzeridentifizierung und Zugangskontrolle verbessern Sicherheit und Transparenz im Flottenmanagement
Teilen: