Startseite » Technik » Entwicklung »

„Spatial Computing wird die Ausbildung von Fachkräften revolutionieren“

Interview mit Jörg Dietrich, Sales Director bei MHP, über den Einsatz der Apple Vision Pro
„Spatial Computing wird die Ausbildung von Fachkräften revolutionieren“

Firmen im Artikel
Jörg Dietrich, Sales Director bei MHP, gibt spannende Einblicke in die Zusammenarbeit mit Porsche und Apple zur Entwicklung von Lösungen mittels Spatial Computing. Er erläutert, wie der Einsatz der Apple Vision Pro in verschiedenen Unternehmensbereichen getestet wird, welche Herausforderungen bei der Integration der Technologie bestehen und welche Vorteile sie gegenüber anderen Lösungen bietet.

» Alexander Gölz, Chefredakteur Industrieanzeiger

Bei MHP gibt es ein Projekt mit der Apple Vision Pro. Wie kam es zu dieser Idee und wie lief die Umsetzung ab?

Ich bin im Account-Team bei MHP für Porsche tätig und betreue zahlreiche IT-Projekte in Weissach und im Motorsport. Dort arbeiten wir an vielen innovativen Themen, insbesondere aus dem Motorsport kommend. Wir nutzen bereits iPads und iPhones für verschiedene Industrieanwendungen, wie das Scannen von Teilen, den Ein- und Ausbau von Komponenten oder die Dokumentation von Laufzeiten – sowohl an Prüfständen als auch in Rennsportfahrzeugen. Dabei haben wir sehr moderne Lösungen im Einsatz und stehen in engem Kontakt mit Apple, die uns bei der Entwicklung unterstützen. Vor etwa einem Jahr fragte uns Apple, ob wir Interesse hätten, mit einem Developer-Kit der Apple Vision pro zu arbeiten und an verschiedenen Use-Cases gemeinsam mit ihnen zu arbeiten. So hat alles begonnen, etwa im Sommer 2023.

Welche Herausforderungen gab es bei der Integration in Ihre Prozesse?

Der Begriff „Spatial Computing“ war neu für uns, und wir mussten uns an das UX beziehungsweise UI-Design gewöhnen, besonders an die Positionierung von Objekten im dreidimensionalen Raum. Letztlich ist es die Digitalisierung der Aktivitäten von Maschinen, Menschen und Objekten sowie der Umgebungen, in denen diese agieren, mit dem Ziel, Aktionen und Interaktionen zu ermöglichen und zu optimieren. Im Gegensatz zur zweidimensionalen Ebene, auf der wir uns sonst bewegen, stellt dies eine ganz neue Herausforderung dar. Zum Beispiel, wenn ein Pop-Up-Window erscheint und der Benutzer einen Schritt nach vorne macht, sieht er es nicht mehr. Das sind Überlegungen, die bei der Entwicklung solcher Use-Cases eine Rolle spielen. Abgesehen davon hatten wir keine großen Herausforderungen, da wir es gewohnt sind, mit iOS zu entwickeln. Die Programmiersprachen, wie SwiftUI und Xcode, sind in VisionOS identisch. Neue Herausforderungen ergaben sich jedoch, weil wir auf einmal 3D-Artists brauchten, die sich mit CAD-Dateien und Renderings auskennen, um technische Anwendungen in die Brille zu integrieren. Diese müssen dann auch mit realistischen Materialien wie Stoffen, Leder oder Gummi angereichert werden, damit die Darstellung nicht zu technisch wirkt. Es war also wichtig, ein Team mit unterschiedlichen Fähigkeiten zusammenzustellen.

Wie lange dauert die Umsetzung eines solchen Projekts?

Das hängt stark vom Projekt ab. Wenn wir zum Beispiel nur etwas in der Brille visualisieren wollen, wie einen Sitz, eine Bremsscheibe oder ein Motorrad, und auf bestehende Dateien zurückgreifen können, dauert das teilweise nur einen Tag. Der Aufwand steigt jedoch erheblich, wenn es um die Entwicklung von Schulungsinhalten geht, bei denen Roboterbewegungen und User-Interaktionen berücksichtigt werden müssen. Solche Projekte können schnell komplex werden. Daher ist es wichtig, Use-Cases zu identifizieren, die im Unternehmen skaliert werden können. Wenn ich beispielsweise 250.000 Euro in die Entwicklung einer App investiere, möchte ich nicht nur fünf Mitarbeiter schulen, sondern möglichst 500, um einen Return on Investment zu erzielen.

Wie groß ist denn bei Ihnen das Team rund um die Apple Vision Pro?

Wir haben mit einer Hand voll Leuten angefangen. Jetzt haben wir ein Kernteam von 20 Leuten, die schon in diesem Team Apple Vision Pro sind. Das wird Stück für Stück weiter wachsen.

Ist der Schulungs-Use-Case bereits bei Porsche im Einsatz?

Nein, momentan noch nicht. Wir wollten zunächst einen Use-Case entwickeln, der alle Möglichkeiten der Apple Vision Pro zusammenführt – also Eye-Tracking, Hand-Tracking, Visualisierung und die Zusammenarbeit mit einem Roboter. Dieser komplexe Use-Case ist aktuell ein Proof of Concept. Es laufen derzeit Untersuchungen, wie wir solche Trainingsinhalte bei Porsche oder im Volkswagen-Konzern umsetzen können, besonders bei wiederkehrenden Themen wie Schulungen. Ein Gremium innerhalb des Porsche-Konzerns prüft aktuell zahlreiche Use-Cases und filtert die besten heraus.

Sind Ihre aktuellen Anwendungsfälle alle auf Porsche ausgerichtet?

Nein, nicht ausschließlich. Wir entwickeln inzwischen einige Anwendungen für die Apple Vision Pro auch außerhalb der Porsche AG in unterschiedlichen Branchen. Bei Porsche sind die Anwendungen ressortübergreifend in Entwicklung, Produktion, Qualitätssicherung und im Kundenbereich angesiedelt. Entscheidend ist, dass wir möglichst auf bestehende Daten zugreifen können, um den Aufwand gering zu halten. Wenn ich jedes Mal Daten rendern und aufbereiten muss, entsteht ein Datensilo, und ich habe nichts gewonnen. Die Verbindung zwischen dem Entwicklungsprozess und den fertigen Produkten muss so effizient wie möglich gestaltet werden.

Lohnen sich AR-Anwendungen mit der Vision Pro auch für den Mittelstand?

Durchaus. Ich denke hier an Hidden Champions, die vielleicht auch dann entsprechende hochwertige Produkte haben. Und wenn ein Unternehmen heute schon von Siemens oder von Dassault ihre Entwicklungsdaten in einer 3D-Datei hat, dann sollte das für sie auch mit relativ wenig Aufwand möglich sein.

Was sind die großen Vorteile der Apple-Brille gegenüber anderen Produkten?

Zum einen ist das die hohe Auflösung des Displays. Zum anderen ist es ganz klar die einfache Steuerung über das Eye-Tracking. In Kombination mit dem Hand-Tracking wird somit kein Controller benötigt. Der Operator kann also hands free agieren. Das ist ein wichtiger Unterschied zu vielen anderen Geräten, die noch immer einen Controller benötigen, um in der VR-Welt navigieren zu können. Generell muss man sagen, dass das Eye-Tracking extrem genau ist. Und die Bedienerfreundlichkeit ist einfach Apple-like. Jeder Anwender versteht die Bedienung nach fünf Minuten und das nimmt die Hemmschwelle.


Über die Apple Vision Pro

Die Apple Vision Pro ist Apples erste Mixed-Reality-Brille und wurde im Juni 2023 vorgestellt. Die Vision Pro vereint Augmented Reality (AR) und Virtual Reality (VR) und ermöglicht sowohl virtuelle als auch erweiterte reale Umgebungen. Die Besonderheit ist die Steuerung durch Eyetracking. Die Brille wird somit komplett ohne Controller bedient – durch Augenbewegungen, Gesten und Sprachbefehle. Des Weiteren zeigt sie die Augen des Trägers auf einem äußeren Display an, wenn jemand in der Nähe ist, um die Interaktion menschlicher zu machen.

Unsere Whitepaper-Empfehlung
Firmen im Artikel
Industrieanzeiger
Titelbild Industrieanzeiger 15
Ausgabe
15.2024
LESEN
ABO
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de