Firmen im Artikel
Braucht die Welt noch einen neuen Roboter? Diese Frage stellen sich wohl die wenigsten Entwickler, bevor sie ein neues Modell angehen.
Für die drei Robotik-Experten Tobias Ortmaier, Jens Kotlarski und Matthias Dagen hingegen war es die Kernfrage schlechthin. Sie wollten keine Variante auf den Markt bringen, die sich nur unwesentlich von den bereits vorhandenen unterscheidet. Deswegen war vor den ersten konstruktiven Schritten ein umfangreiches Vorprojekt mit Marktrecherche nötig. „Wir wollten genau wissen, welche Roboter es überhaupt gibt, was deren Stärken und Schwächen sind und wie die Wachstumsprognosen aussehen“, fasst Kotlarski die Vorgeschichte zusammen. Schließlich war man sich einig: Ja – die Welt braucht tatsächlich einen neuen Roboter. Aber nicht irgendeinen.
Die drei wollten ein kollaboratives Modell bauen, einen sogenannten Cobot, der alle wichtigen Funktionalitäten wie künstliche Intelligenz (KI), Bildverarbeitung, Konnektivität und das Thema Sicherheit bereits an Bord hat, damit er schnell und problemlos in einen bestehenden Ablauf eingebunden werden kann. Einen schlauen Cobot sozusagen, der zudem kinderleicht zu bedienen ist. „Da muss man unterscheiden“, betont Ortmaier. „Roboter, die nichts können, sind auch einfach zu bedienen, die lassen sich nämlich nur starten und stoppen.“ Das geplante Modell sollte allerdings alle verfügbaren Zukunftstechnologien in sich vereinen, umhüllt von einer intuitiven Benutzeroberfläche.
Yuniik – der einzigartige Cobot
So einen Roboter hat die Welt bis dato tatsächlich noch nicht gesehen. Deswegen nannten die drei Entwickler ihr Modell „Yuniik“, lautsprachlich abgeleitet von dem englischen Wort „unique“, einzigartig. Yuniik, der Einzigartige – und vorerst auch das einzige Produkt der frisch gegründeten Yuanda Robotics GmbH mit Sitz in Hannover. Jens Kotlarski hat heute die Position des CEO inne, Matthias Dagen ist zuständig für das Thema Safety und Tobias Ortmaier kümmert sich um die strategische Ausrichtung des Start-ups.
Egal wie smart und geschmeidig der Cobot am Ende werden soll – um die Basics kommt man nicht herum. Und dazu gehört nun mal das Thema Sicherheit, denn wenn das Modell später eng mit dem Werker zusammenarbeiten soll, dann darf der unter keinen Umständen verletzt werden. Also haben sich die Entwickler mit diesem Aspekt intensiv beschäftigt. „Unser Anspruch war, dass sich der Roboter permanent selbst beobachtet und genau weiß, was er gerade macht“, so Matthias Dagen. „Alle Sensoren, die wir in der Maschine verbaut haben, sind doppelt vorhanden.“ Dazu gehören jeweils zwei Positions- und zwei Drehmomentsensoren in jeder Achse, also insgesamt 24 Datenlieferanten. Auch die komplette Auswerteelektronik ist redundant ausgelegt und kontrolliert sich gegenseitig. Mit dieser beeindruckenden Ausstattung lassen sich Kräfte entlang der kompletten Roboterstruktur ermitteln und dabei feinfühlig und vor allem schnell erkennen.
Diese Sensibilität hat noch einen weiteren praktischen Nutzen. Der Anwender kann den Roboter gefahrlos an die Hand nehmen, führen und ihm zeigen, was er tun soll, was von ihm erwartet wird. Und schließlich unterstützt die empfindliche Sensorik auch die Prozesskontrolle. Hat der Roboter zum Beispiel einen Stift in ein Loch gefügt, lässt sich anhand des Kräfteverlaufs objektiv beurteilten, ob er seine Aufgabe gut oder eher mäßig gelöst hat.
Bei besonders brisanten Anwendungen lassen sich zusätzliche Sicherheitszonen einrichten. Das ist zum Beispiel erforderlich, wenn der Roboter ein gefährliches Werkzeug führt und es grundsätzlich zu keiner Berührung mit dem Menschen kommen darf. In diesem Fall werden virtuelle Wände definiert, die der Cobot nicht überwinden kann. Der Anwender dahinter ist immer auf der sicheren Seite. Solche Software-Schranken sind schnell eingerichtet, denn pro Wand müssen mit der Maschine lediglich drei Punkte angefahren werden. Den Rest erledigt die eingebaute Intelligenz.
Künstliche Intelligenz ermöglicht eigenständige Lokalisierung an der Maschine
Am Endeffektor trägt Yuniik eine Kamera, die genau so schlau ist wie er selbst und über die neuesten Vision-Funktionen verfügt. Auch hier war es den Entwicklern wichtig, dass sich der Nutzer um nichts kümmern muss. So kann sich der Roboter ohne weiteres Zutun zum Beispiel an einer Maschine lokalisieren. Oder er detektiert Handhabungsobjekte und erkennt, wo sie in seinem Arbeitsraum liegen. „Die Objekte müssen also nicht hart einprogrammiert werden, sondern die Maschine kann sie sehen und bildrückgeführt greifen“, erklärt Kotlarski. Und wie selbstverständlich lässt sich über das künstliche Auge auch noch Qualitätssicherung betreiben. Habe ich das richtige Werkstück in der Hand? Wie ist die Oberflächengüte? Sind Kratzer zu erkennen? Was früher zu den Aufgaben des Werkers gehört hat, entscheidet jetzt der Roboter: Passt das Bauteil, das ich hier gerade verbaue? Wenn nicht, lege ich es zur Seite und nehme das nächste.
Solche Funktionen sind zwar seit Jahren aus der klassischen Robot-Vision-Technik bekannt. Aber bei dem Hannoveraner Modell muss der Anwender nur einen Knopf drücken, um dem Roboter zu zeigen, was er machen soll. Im praktischen Ablauf legt man ihm das Objekt einmal in sein Blickfeld, quittiert mit einem Tastendruck und künftig wird der Yuniik den Gegenstand an jeder beliebigen Stelle in seinem Kamerabild erkennen. „Die komplette Parametrierung läuft im Hintergrund und das ist einzigartig“, schwört Kotlarski.
Wenn der Roboter sehen und fühlen kann, dann hat man als Anwender bereits einen erheblichen Mehrwert. Die Spezialisten aus Hannover gehen bei ihrem neuesten Wurf aber noch einen entscheidenden Schritt weiter, denn Yuniik kann das Gesehene und Gefühlte auch verstehen.
Einlernung mit dem Cobot erfordert keine Schulung
Dafür sind KI-Funktionalitäten erforderlich, die üblicherweise auf einem externen Server abgelegt sind. Bevor also eine intelligente Entscheidung getroffen werden kann, müssen zunächst die Daten in die Cloud geschickt und die nötigen Informationen angefordert werden. Bei Yuniik ist dieser informationstechnische Umweg nicht nötig, er kann seine eigenen Entscheidungen treffen. „Wir haben alles dafür Nötige in unseren Roboter gepackt“, versichert Ortmaier. Erst wenn die Maschine mit seinem KI-Kern nicht mehr weiterkommt, wird externe Hilfe angefordert. „Es gibt meines Wissens keinen Cobot, der ein integriertes Modul für die Verarbeitung von neuronalen Netzen hat, also maschinelles Lernen zur Laufzeit zur Verfügung stellt“, bringt es Ortmaier auf den Punkt.
Von den Bildverarbeitungs-Algorithmen und Lernverfahren, die ständig im Roboter ablaufen, bekommt der Anwender nichts mit. Die Komplexität wird nach außen nicht sichtbar. „Wir haben die maschinelle Intelligenz gekapselt“, erklärt Ortmaier plastisch. „Dadurch erreichen wir eine sehr einfache Bedienung, weil schon viel intern parametriert und abgeglichen wird.“ Beim Trainieren der Bilderkennung beispielsweise gibt der Roboter dem Bediener eine klare Rückmeldung, wenn er mit der aktuellen Vorlage klarkommt: Jetzt bin ich mir sicher genug, du brauchst mir kein weiteres Bild zeigen – so oder ähnlich könnte die Nachricht lauten. Ortmaier scheut sich nicht, die intuitive Benutzeroberfläche der Maschine mit einem eindringlichen Vergleich zu umschreiben: „Wer eine Mail mit dem Handy verschicken kann, der kann auch unserem Roboter das Sehen beibringen.“
Die integrierte Intelligenz vereinfacht natürlich auch die Inbetriebnahme des Cobots. Für die Hannoveraner Entwickler ist dieser Aspekt unverzichtbar, um neue Nutzergruppen angehen zu können, die möglicherweise noch nie einen Roboter aus der Nähe gesehen haben, die vielleicht sogar Angst vor dieser Technik haben. Oder zumindest Bedenken. Wer kann es sich denn heute noch erlauben, eine zweiwöchige Schulung zu besuchen um zu lernen, wie man einen Roboter programmiert? Nur um später das eigene Modell für eine bestimmte Applikation einsetzen zu können. Das sind Praktiken aus den neunziger Jahren, die sich heute kein Mittelständler mehr leisten kann. Und in den aktuellen Corona-Zeiten schon dreimal nicht.
„Bei unserem Modell braucht man keine Schulung“, versichert Kotlarski. In der Praxis verbindet sich der Nutzer mit dem Roboter über eine Browser-Applikation, kann sich also mit einem beliebigen Endgerät in die Maschine einloggen. Auf einem Startbildschirm sind ganze Applikationen wie zum Beispiel Handhabung oder Qualitätssicherung in Form von Kacheln zusammengefasst. Durch Anklicken wird das Gerüst für ein Grundprogramm bereitgestellt, das dann schrittweise verfeinert und über sogenannte Bibliotheken ergänzt wird. Die Software nimmt den Nutzer vom Start weg an die Hand und führt ihn visuell durch den Prozess.
Mit dieser intuitiven Oberfläche adressiert Yuanda vor allem den Mittelstand und hier speziell Unternehmen, die ihren Automatisierungsgrad steigern wollen. „Wir bieten dem Anwender ein System, das er versteht und ohne Expertenwissen wirtschaftlich nutzen kann“, so Kotlarski. Mehr noch. Die Technik soll begeistern, Berührungsängste abbauen und am Ende auch von Menschen genutzt werden, die sich noch nie so recht an den Kollegen Roboter herangetraut haben. Kotlarski: „Das ist ein riesiger, völlig unerschlossener Markt, den wir jetzt endlich angehen wollen.“
Das Beste aus zwei Kulturen
Deutsche Ingenieurskunst trifft auf chinesische Dynamik – so vollmundig umschreibt Yuanda Robotics auf ihrer Website die Zusammenarbeit mit der Shenyang Yuanda Aluminium Industry Group. Die chinesischen Partner haben ihren Sitz in Shenyang in der Provinz Liaoning im Nordosten des Landes. Der Kontakt kam über die Uni Hannover zustande. Das Projekt ist sauber aufgeteilt. Die Hannoveraner kümmern sich um Entwicklung, Technik, Marketing, Planung und Strategie. Aus China kommt finanzielle Unterstützung, aber nicht nur die. „Uns wurde auch beim Produktionsaufbau geholfen“, sagt Tobias Ortmaier, der sich bei Yuanda Robotics um die strategische Entwicklung kümmert. „Wir haben versucht, in Deutschland eine Fertigung für unseren Roboter aufzubauen, aber das war schwierig.“ Die Chinesen haben prompt eine Infrastruktur mit vorhandenen Maschinen bereit gestellt. „Wir mussten nicht lange diskutieren oder über Jahre Budgetpläne hin- und herschieben“, so Ortmaier. „Es war schnell klar, dass wir einen gemeinsamen Weg beschreiten. Das meinen wir mit chinesischer Dynamik.“
„In fünf Jahren wollen wir zu den Top-Five im Cobot-Markt gehören“
Herr Kotlarski, wie wurde der Yuanda-Roboter von den ersten Kunden angenommen?
Sensationell. Ich kann es nicht anders ausdrücken. Aber natürlich haben uns im Vorfeld ein paar Fragen umgetrieben. War es zum Beispiel richtig, dass wir so viel Sensorik in das System gesteckt haben? Wir hatten manchmal Bedenken, dass wir Over-Engineering betreiben, aber offensichtlich war das markttechnisch betrachtet nicht der Fall. Es war die richtige Strategie. Wenn sich heute jemand einen Roboter anschafft, dann muss er sich meist noch jede Menge Peripherie dazu kaufen. Das wollten wir vermeiden, weil es dadurch für den Anwender immer komplexer wird.
Woher kamen Ihre Bedenken? Sie hatten doch ein klares Konzept, sie wollten die neuesten Techniken so einfach wie möglich verpacken.
Schon richtig, aber in der Roboterentwicklung ist man zunächst in seinem Labor allein unterwegs. Man denkt, man macht das richtige für die Menschheit und geht irgendwann damit nach draußen. Das ist ein spannender Moment. Wenn dann das Grundkonzept in Frage gestellt wird, ist das schlecht. Aber das war bei uns tatsächlich nicht so.
Der Yuanda-Roboter wird derzeit bei sogenannten Beta-Testern genutzt. Wie bereiten Sie diese ersten Einsätze vor? Wie läuft das ab?
Wir fahren mit dem Roboter zu verschiedenen Kunden, immer wochenweise. Am ersten halben Tag stellen wir das Modell vor, lassen es dann vor Ort und sammeln später das Feedback ein. Das ist eine Variante. Spannender ist eigentlich die zweite, bei der wir dem Tester absolut nichts erklären und ihn stattdessen auffordern, einfach mal loszulegen. Das haben wir uns dann genau angeschaut und konnten dabei ungefiltert erkennen, ob unsere Funktionen in der richtigen Weise mit dem richtigen Komplexitätsgrad zur Verfügung gestellt werden. Es waren meist nur Kleinigkeiten, die angemerkt wurden. Zum Beispiel ein Knopf, der etwas größer sein könnte, damit er ergonomischer gedrückt werden kann.
Wen genau wollen Sie mit dem Roboter erreichen?
Unsere Zielgruppe ist der Maschinenbediener und nicht wie so oft der Roboterprogrammierer. Wir sprechen den Mitarbeiter an, der heute zum Beispiel die CNC-Maschine bedient und perspektivisch in der Lage sein soll, unseren Roboter zu bedienen. Wir adressieren aber auch die schnell wechselnden Anforderungen im Produktionsbereich, also den Mittelständler, der eine große Variantenvielfalt bewältigen und Auftragsspitzen abfangen muss.
Wie viele Roboter wollen Sie in diesem Jahr noch verkaufen?
Unser Zielmarkt ist Deutschland, Österreich und Schweiz. Die Auslieferung startet im dritten Quartal. Bis Ende des Jahres wollen wir 300 Systeme verkauft haben. Wenn wir uns die eingehenden Bestellungen anschauen, dann sind wir eigentlich ganz optimistisch, dass wir dieses Ziel erreichen.
Und wie soll es mittelfristig weiter gehen?
Im nächsten Jahr sollen es 800 verkaufte Roboter sein und im übernächsten Jahr 1500. In fünf Jahren wollen wir zu den besten fünf Anbietern im Cobot-Markt gehören und das bedeutet fünfzehn Prozent Marktanteil.
So muss Robotik!
Die Gründer von Yuanda Robotics zeigen eindrucksvoll, wohin die Reise in der Robotik geht. Sie haben bewiesen, dass der Spagat zwischen Hightech und leichter Bedienung möglich ist, dass auch ein ganz normaler Anwender von KI profitieren kann. Das ist die Zukunft. Es geht nicht nur darum, komplexe Algorithmen zu entwerfen. Die Technik muss auch unter die Leute gebracht werden. Erst dann zeigt sich der praktische Nutzen und der Wert einer neuen Entwicklung.
Kontakt:
Yuanda Robotics GmbH
Carl-Buderus-Straße 7
30455 Hannover
www.yuanda-robotics.de