Für komplexe Simulationsberechnungen lohnt es sich für kleine und mittlere Unternehmen nicht, die benötigte Hardware selbst zu kaufen und zu betreiben. Flexibler fährt man mit Grid Computing. Der Bund fördert den Aufbau solcher Rechnerverbünde, die ihren Ursprung im wissenschaftlichen Umfeld haben. Dabei geht es auch darum, Kooperationsplattformen für Industriepartner aufzubauen.
„Grid bringt einen erheblichen Beschleunigungsfaktor in unsere Arbeit und in die unserer Kunden“, staunt Erik Hepp, Projektleiter für Forschungsprojekte bei der Aachener Magma Gießereitechnologie GmbH. Der Software- und Dienstleistungsanbieter ist Experte dafür, Füll- und Erstarrungsvorgänge beim Gießprozess zu simulieren. Dabei geht es vor allem darum, die Qualität von Gussbauteilen zu erhöhen – bei kürzeren Entwicklungszeiten. Hepp: „Mit den Ergebnissen der Gießprozesssimulation lassen sich Kosten in der Gießerei substanziell reduzieren. Darüber hinaus lässt sich die Qualität der Bauteilauslegung und Lebensdauerberechnung erheblich verbessern.“
Allerdings, schränkt er ein, werden die Modelle und Verfahren immer komplexer und damit auch rechenintensiver. Die Berechnung eines komplexen Modells mit mehreren Varianten dauert auch schon mal mehr als einen Tag. „So lange wartet aber kein Kunde gerne“, so Hepp.
Auch aus diesem Grund hat sich sein Unternehmen 2007 dem vom Bundesministerium für Bildung und Forschung initiierten Projekt Partnergrid angeschlossen, bei dem es unter anderem darum geht, bundesweit in großen Rechenzentren verteilte Rechen- und Speicherressourcen der Industrie zugänglich zu machen – und zwar nach deren Bedarf. So zu sagen auf Knopfdruck. „50 Einzelsimulationen, für die wir sonst 500 Stunden gebraucht haben, sind nun in nur fünf Stunden realisierbar“, sagt Hepp. „Mit eigenen Rechnern wäre dies derzeit nicht machbar.“ Daher spricht Magma mittlerweile auch lieber von Optimierungs- als von Simulationsprojekten.
Partnergrid gehört zu den 22 Grid-Projekten, die die Bundesregierung innerhalb der D-Grid-Initiative fördert. Deren Wurzeln liegen im wissenschaftlichen Bereich. „Man wollte die Kooperation zwischen Forschungseinrichtungen fördern sowie deren Rechenkapazitäten bündeln und allen zur Verfügung stellen“, erklärt Dr. Anette Weisbecker, Direktorin am Fraunhofer Institut für Arbeitswirtschaft und Organisation (IAO) in Stuttgart und Leiterin von Partnergrid.
Dass ohne solche Grids in der Forschung vielfach nichts läuft, zeigen etwa die Teilchenbeschleuniger am Genfer Kernforschungsinstitut Cern: „Die dafür notwendigen Berechnungen sind viel zu gigantisch, als dass sie von einem Rechenzentrum alleine geleistet werden könnten“, sagt Weisbecker. Ein Beispiel aus D-Grid: Klimaforscher sollen künftig Klimaveränderungen wesentlich schneller und genauer vorhersagen.
„Grids haben sich langsam entwickelt und sind nun im kommerziellen Bereich angekommen“, stellt Tim Jennings fest, Analyst des britischen IT-Beratungshauses Butler Group. Finanzdienstleister kalkulieren damit das Risiko ihres Portfolios, Geologen analysieren virtuell geplante Öl- und Gasbohrungen. Und im Maschinenbau sowie in der Automobilindustrie erleichtern und beschleunigen Simulationen die Entwicklungsprozesse. Jennings: „Alle Beispiele haben gemeinsam: Sie adressieren rechenintensive Aufgaben, die meist monolithischer Struktur sind.“
Die Butler Group definiert Grids als Ansammlung verteilter Rechenressourcen, verfügbar über ein lokales oder Weitverkehrsnetz, die für den Endanwender wie ein großes, virtuelles Rechensystem erscheinen. „Unternehmen suchen nach Möglichkeiten, Computerressourcen effizienter zu nutzen, um damit Kosten zu reduzieren und die Flexibilität zu erhöhen“, sagt Jennings. Die Flexibilität von Grids wird dadurch erzielt, dass man bei Bedarf zusätzliche Ressourcen hinzufügen kann – und für diese Leistung bezahlt wie für den Strom- oder Wasserverbrauch. Große Konzerne sind mittlerweile dazu übergegangen, Grids im eigenen Haus aufzubauen. Die Deutsche Post beispielsweise hat auf diesem Weg die Auslastung ihrer Server im Rechenzentrum deutlich gesteigert.
„Doch solche internen Grids werden auf die Großunternehmen beschränkt bleiben“, ist sich Jennings sicher. Kleine und mittelständische Unternehmen können sich Rechenleistung oder Speicherplatz bei kommerziellen Anbietern wie HP, IBM, Sun oder Amazon dazukaufen. „Es ist attraktiv für die Anwender, dass sie nur für das bezahlen, was sie auch tatsächlich nutzen“, beobachtet Partnergrid-Leiterin Weisbecker. Bei Amazons EC2-Rechenservice etwa zahlen Kunden 0,10 Dollar pro eingehendem und zwischen 0,10 und 0,17 Dollar je ausgehendem Gigabyte an Daten. Beim Speicherservice S3 sind ab 0,15 Dollar pro Gigabyte Speicher im Monat fällig. „Um spezielle Anwendungen wie Simulationen mit der Software von Magma über diese Dienste zu nutzen, sind noch einige Fragestellungen wie etwa der Umgang mit Lizenzen zu lösen. Außerdem haben viele Unternehmen Bedenken, dass ihre Daten dort sicher sind“, so die Expertin.
„Sicherheit ist ein ganz großes Thema für die Kunden. Deren Daten bekommen wir aus dem Grund in der Regel auf CD gebrannt und persönlich übergeben. Zudem wollen sie meist, dass wir die Projektarbeit, also Crashberechnungen und Umformsimulationen, bei ihnen im Haus durchführen“, bestätigt Koutaiba Kassem-Manthey, Projektleiter für Software-Entwicklung bei der GNS mbH.
Der Braunschweiger Dienstleister und Softwareanbieter im Bereich der virtuellen Produktentwicklung setzt auf Partnergrid, um künftig die Projektabwicklung verstärkt im eigenen Haus durchführen zu können. Dazu wird im Projekt eine Collaboration-Plattform entwickelt. „Das spart Reisekosten, erleichtert die Terminabstimmung zwischen uns, unserem Auftraggeber sowie dem Autohersteller und macht die Projekte effizienter und auch kostengünstiger“, ist Kassem-Manthey überzeugt.
Noch testet das Unternehmen den Prototyp der Plattform im eigenen Haus. Doch mit einem Autozulieferer in Shanghai ist das erste Projekt auf Grid-Basis angedacht: Dieser stellt seine für die Simulation benötigten Daten auf die Plattform, über die dann auch die Simulationsbilder für alle Beteiligten zugänglich sind. „Wenn der Kunde in China Änderungswünsche hat, kann er während einer Diskussion per Telefon mit uns und dem Fahrzeughersteller das Bild des dreidimensionalen Bauteils auf der Plattform so drehen, dass alle wissen, was er meint“, so der GNS-Experte. Außerdem wird auf der Plattform das gesamte Projekt automatisch dokumentiert. „Bei mehrjährigen Vorhaben spart dies enormen Verwaltungsaufwand.“
Darüber hinaus will das Tochterunternehmen GNS Systems Kunden, die mit der Software selbst rechnen wollen, über das Grid Rechenressourcen, gekoppelt mit Software und Beratung, zur Verfügung stellen. Im Partnergrid-Projekt werden die dafür notwendigen Mechanismen und Softwarebausteine entwickelt, um die neuen Softwarelizenz- und Abrechnungsmodelle zu realisieren.
Auch Magma steht kurz davor, die entwickelten Grid-Lösungen bei den ersten Endanwendern zu implementieren. Die Schmolz + Bickenbach Guss GmbH mit Sitz in Krefeld wird laut Hepp ein Optimierungsprojekt eines großen Stahlgussbauteils durchführen und dafür zunächst die Computer-Cluster im eigenen Haus sowie die von Magma nutzen. „Besteht weiterer Bedarf, werden wir kurzfristig weitere Rechenkapazität aus den an Partnergrid beteiligten Rechenzentren zubuchen“, so Hepp.
Ein ganz anderes Szenario erprobt Magma mit der Nemak Europe GmbH, die Gießereien in Wernigerode, Dillingen und in Österreich betreibt. Bisher konnte das Unternehmen Softwaremodule von Magma entsprechend den Lizenzbedingungen nur jeweils an einem Standort einsetzen. „Im Partnergrid erproben wir neue Möglichkeiten des Grid-Einsatzes. Dazu gehören auch Überlegungen für neue Lizenzmodelle, mit denen sich der Softwareeinsatz flexibel handhaben lässt“, erklärt Hepp.
Das Grid-Fitness-Programm für die Magma-und GNS-Software umfasst generell erst mal, dass die Produkte überhaupt über Grid nutzbar gemacht werden – „und zwar so, dass der Endanwender nicht vor einem Grid sitzt, sondern vor seiner Lösung, die ihm Berechnungsergebnisse liefert“, so Weisbecker. Eine ergonomische, leicht zu bedienende Oberfläche sei somit eine wesentliche Anforderung. Überdies wird Software entwickelt, die dafür sorgt, dass die riesigen Mengen an Simulationsdaten komprimiert auf die Plattform gestellt werden. „Für all dies gibt es keine Lösungen von der Stange“, weiß Weisbecker.
Die größte Herausforderung besteht nach Meinung der Projektpartner aber nicht auf technischer Seite: „Wir müssen noch viel Missionars- und Überzeugungsarbeit leisten, damit Unternehmen ihre Skepsis gegenüber der Technologie ablegen“, argumentiert Hepp. Nach Meinung von Weisbecker gelingt dies am besten, indem man konkrete Projekte angeht, bei denen der Nutzen für den Kunden evident ist: „Die Verkürzung der Rechenzeit um den Faktor 100 beim Beispiel Magma zeigt doch eindrucksvoll, wo die Vorteile liegen.“
Sabine Koll Journalistin in Böblingen
D-Grid auf einen Blick
Die ersten beiden Phasen der D-Grid Initiative, die von 2005 bis 2010 laufen, hat das Bundesministerium für Bildung und Forschung bislang mit rund 80 Mio. Euro gefördert. Daran sind rund 150 wissenschaftliche Einrichtungen und 45 Industriepartner beteiligt. Für D-Grid 3 wurden weitere 25 bis 30 Mio. Euro Fördergelder bereit gestellt. Ziel ist es, benutzerfreundliche Zugänge, Service Level Agreements, Service-Grids für Communities sowie eine Grid-basierte Wissensschicht zu entwickeln. Die für D-Grid zur Verfügung stehenden Rechenressourcen stellen eine ganze Reihe deutscher Rechenzentren zur Verfügung. Dazu gehören die Forschungszentren Jülich und Karlsruhe und das Paderborn Center of Parallel Computing.
Globalisierung
Mit der Inbetriebnahme des Grids für den neuen Large Hadron Collider (LHC) hat das Europäische Teilchenphysiklabor Cern hat im vergangenen Oktober einen Meilenstein gesetzt: Die Simulation der Hadronenkollisionen und der Wechselwirkung der entstehenden Teilchen mit den Detektoren verursacht gewaltige Datenmengen und benötigt enorme Rechenleistung, die nur durch den weltweiten Rechnerverbund abgedeckt werden kann.
„Eigene Rechenzentren sind Kostenblöcke“
Nachgefragt
Der große Grid-Hype scheint vorbei zu sein. Wo steht die Technologie Ihrer Meinung nach?
Die Technologie ist mittlerweile in den Unternehmen angekommen. Die Phase der Desillusionierung ist durchschritten und wir befinden uns jetzt im Stadium der Einsicht. Das heißt, die Unternehmen sehen konkret, dass Grids für sie handfeste Vorteile haben. Dazu muss man sagen, dass das Grid Computing lange nicht ein solcher Hype war wie etwa das E-Business. Und längst nicht für jedes Unternehmen ist die Technologie sinnvoll – sondern nur für solche, die einen immensen Rechenbedarf haben.
Warum fördert der Bund eine Vielzahl von Grid-Projekten?
Grids haben ihre Wurzeln im wissenschaftlichen Bereich, um die Kooperation zu stärken und die vorhandenen Computing-Ressourcen gemeinsam zu nutzen. Da hatte Deutschland lange Zeit Nachholbedarf im internationalen Vergleich. Dies wollte die Bundesregierung ändern – auch um das Thema in den industriellen Bereich hineinzutragen. Dies ist mit der D-Grid-Initiative schnell gelungen, so dass wir heute einen internationalen Spitzenplatz einnehmen – und das Thema auch in kleine und mittelständische Unternehmen hineintragen können.
Doch mit anderen Schwerpunkten – oder?
Ja, bei kleinen und mittelständischen Unternehmen liegt der Fokus auf der Kooperation mit Partnern sowie der Möglichkeit, keine umfassenden Rechnerkapazitäten im eigenen Haus vorhalten zu müssen.
Auf welche weiteren Fragen konzentrieren sich die Grid-Forschungsprojekte in Deutschland?
Zuerst ging es darum, Komponenten für die so genannte Middleware zu entwickeln. Diese Software ermöglicht es Grid-Nutzern erst, die Ressourcen zu nutzen oder auch andere Software darauf laufen zu lassen. Heute geht es darum, neue Geschäftsmodelle auf der Basis der Plattform zu entwickeln: Im Projekt Partnergrid beispielsweise werden Geschäftsmodelle entwickelt, die ingenieurtechnisches Know-how zusammen mit Software und Hardware bündeln. Und schließlich arbeiten wir an Möglichkeiten, Softwarelizenzmodelle für das Computing aus der Steckdose zu entwickeln.
Die Kosten für Hardware sinken ständig. Ist es für Unternehmen in Zukunft überhaupt noch notwendig, sich einem Rechenverbund anzuschließen?
Die Anschaffung von Hardware ist sicher keine Kostenfrage. Der große Kostenfaktor für die Unternehmen sind der Betrieb und die Wartung. Außerdem ist die Sicherheit in Rechenzentren, wie wir sie im Rahmen der D-Grid-Initiative nutzen, wesentlich besser gewährleistet als in kleinen Unternehmen. Das betrifft auch die redundante Auslegung der Computer für den Fall eines Brands oder Ausfalls.
Unsere Whitepaper-Empfehlung
Jetzt downloaden und über neue Ansätze erfahren, die nicht nur helfen, Unfälle zu vermeiden, sondern auch die Frage beantworten „Wie kann die Technik heute im Bereich Arbeitsschutz die Wirtschaftlichkeit in meinem Unternehmen erhöhen?“
Teilen: