Im Exzellenzcluster „Cognition for Technical Systems“ (CoTeSys) an der TU München erforschen Wissenschaftler verschiedener Disziplinen die Grundlagen der so genannten wahrnehmungsgekoppelten Bewegungssteuerung. Und sie realisieren ihre Ergebnisse mit informationsverarbeitenden Mechanismen – zum Beispiel mit Eddi, dem menschlichen Roboter.
Mit dem Cluster „Cognition for Technical Systems“ (CoTeSys) startete in München ein weltweit einmaliges, interdisziplinäres Projekt, das die Übertragung kognitiver Fähigkeiten, die man gemeinhin biologischen Systemen nachsagt, auf Maschinen und Roboter erforscht. Damit sollen Roboter befähigt werden, eng mit dem Menschen zusammenzuarbeiten. Zugleich sollen sie selbständig werden, sodass sie Situationen, in denen sie sich befinden, selbst analysieren und flexibel darauf reagieren können.
Dieses Ziel kann nur durch interdisziplinäre Forschung erreicht werden. Neurologen und Biologen erforschen kognitive Fähigkeiten von Menschen und Tieren. Psychologen untersuchen die Anforderungen an die verbale und nonverbale Kommunikation zwischen Roboter und Mensch. In den technischen Fakultäten werden mechanische, physikalische und regelungstechnische Fragen angegangen, wobei Mathematik und Biologie Optimierungsverfahren beitragen. Informatiker wiederum erforschen Verfahren zur numerischen und symbolischen Verarbeitung von Informationen und Wissen, damit Roboter ihre Umgebung erkennen und ihre Bewegungen steuern, um damit Aufgaben eigenständig wahrnehmen zu können. Im Forschungscluster arbeiten rund 100 Wissenschaftler der verschiedener Fachrichtungen aus fünf Hochschulen und Forschungsinstituten zusammen. Die von der Technischen Universität München (TUM) koordinierte Kooperation wird im Rahmen der Exzellenzinitiative von Bund und Ländern mit insgesamt 28 Millionen Euro gefördert. Weitere Partner sind die Ludwig-Maximilians-Universität, die Universität der Bundeswehr, das Institut für Robotik des Deutschen Zentrums für Luft- und Raumfahrt (DLR) und das Max-Planck-Institut für Neurobiologie. Das Projekt Eddi gehört auch zu dem umfangreichen Unterfangen. Das Ziel ist, dass Roboter in Zukunft auf Gesichtsausdrücke angemessen reagieren können. Das Modell Eddi kann inzwischen unterscheiden zwischen lachen, staunen und trauern.
Teilen: