Menu

Ein Roboter mit menschlichem Antlitz

Quelle: Technische Universität München


Münchener Roboterforscher haben zusammen mit japanischen Wissenschaftlern eine raffinierte technische Lösung entwickelt, mit der Roboter ein Gesicht erhalten: Ein Beamer projiziert das 3D-Bild eines Gesichts von hinten in eine Kunststoffmaske, Sprache und Mimik steuert ein Computer.

Fertig ist Mask-Bot, ein verblüffend menschenähnlich sprechender Kunststoffkopf. Bevor er in Zukunft Robotern ein menschliches Anlitz verleiht, könnte er bald schon die Gesprächspartner in Videokonferenzen als eine Art Avatar an den Tisch holen. Das Projekt ist Teil des Münchener Roboter-Exzellenzclusters CoTeSys.

Schlichte Dialoge kann er schon. „Rainbow“ sagt Dr. Takaaki Kuratate. Und schon klimpert Mask-Bot mit den Augen und verblüfft den menschlichen Gesprächspartner mit einem elaborierten Satz - auf Englisch natürlich. Übersetzt ins Deutsche sagt er: „Wenn sich Sonnenstrahlen in den feinen Wassertropfen der Atmosphäre brechen, dann entsteht ein Regenbogen.“ Dabei bewegt er ein wenig den Hals und hebt vielsagend die Augenbrauen.

Was fast täuschend echt wie ein sprechender Mensch aussieht, ist der Prototyp eines neuen Robotergesichts, das ein Team am Institut für Kognitive Systeme (ICS) der TU München in Kooperation einer Gruppen aus Japan entwickelt hat. Kunststoff- und Digitaltechnik sei Dank: „Mask-Bot wird die Art und Weise prägen, wie wir Menschen in Zukunft mit Robotern kommunizieren“, prognostiziert Prof. Gordon Cheng, der Leiter des ICS-Teams. Gleich mehrere Neuheiten haben die Entwickler dafür realisiert.

Da ist einmal die große Präsenz eines Gesichts in 3D. Bislang verpassen zwar schon manche andere Gruppen ihren Maschinen ein dreidimensionales Antlitz, doch sind diese eher comicartig animiert. Mask-Bot hingegen hat einen dreidimensionalen Kopf: eine transparente Kunststoffmaske, auf die ein hinter ihr befestigter Beamer ein menschliches Gesicht passgenau und dreidimensional projiziert und ihr so Individualität verleiht. Auf diese Weise wirkt das Gesicht auch von der Seite her noch sehr realistisch.

Viele vergleichbare Systeme projizierten Gesichter wie im Kino von vorne. „Walt Disney“, nennt Kuratate einen Pionier des Felds, „ließ schon in den 1960er-Jahren für seine Spukhaus-Installationen die Gesichter Grimassen schneidender Schauspieler auf Büsten projizieren, die damit zu sprechenden Köpfen wurden.“ Während Walt Disney die Büsten von vorne anstrahlte, ist es mit Mask-Bot jetzt möglich, alle Komponenten für das Gesicht in einem Roboter-Kopf von außen unsichtbar unterzubringen.

Dafür musste das CoTeSys-Team mit einer stark stauchenden Faktor 0,25-Fischaugenlinse mit einem Makroadapter dafür sorgen, dass bei einem Abstand von nur zwölf Zentimetern zwischen Linse und Gesichtsmaske dort auch wirklich ein komplettes Gesicht ankommt. Ein besonders starker, kleiner Beamer sowie eine spezielle Leuchtschicht-Imprägnierung auf der Innenseite der Kunststoffmaske verhelfen Mask-Bot obendrein zu so viel Leuchtkraft, dass die Kommunikation Mensch-Maschine auch bei Tageslicht möglich ist. „Bei uns können Sie die Vorhänge offen lassen“, erklärt Kuratate lachend.

 
 

Anwendung in Videokonferenzen

Dieser Teil des neuen Systems könnte schon bald in Videokonferenzen angewandt werden. „Mask-Bot kann dabei das bislang übliche Monitorbild einer Person durch eine echte Nachbildung ersetzen, die mit am Tisch sitzt und genauso aussieht und spricht“, sagt Takaaki Kuratate.

Als Gesicht für einen Roboter muss Mask-Bot allerdings unabhängig von einer Videoübertragung sein, hinter der ja ein sprechender Mensch steht. Ein neu entwickeltes Programm sorgt dafür, dass dem Computer bereits ein normales, zweidimensionales Foto ausreicht, um es richtig proportioniert in eine Projektion für eine dreidimensionale Maske umzuwandeln. Weitere Algorithmen verleihen dem Gesicht Mimik und Sprache.

Für das Mienenspiel hat Takaaki Kuratate die „Talking Head Animation Engine“ entwickelt: Zunächst sammelt ein spezielles Kamerasystem zahlreiche Informationen über das Mienenspiel menschlicher Probanden. Daraus filtert und abstrahiert ein Computer jene Gesichtsausdrücke, die zu einem bestimmten Laut passen, wenn er gesprochen wird. Aus jedem dieser Gesichtsausdrücke wurde ein Set an Gesichtspunkten extrahiert, die der Computer nun jedem neuen Gesicht zuordnen und es so beleben kann. Eine „Emotion Synthesis Software“ sorgt bei Bedarf für eine emotionale Färbung: dass jemand fröhlich, traurig oder wütend schaut.

Mask-Bot kann bereits realistisch nachsprechen, was ihm über eine Tastatur eingetippt wird. Englisch, Japanisch und bald auch Deutsch: Eine mächtige „Text To Speech“-Programmierung setzt den Text in Audiosignale um. Auf Knopfdruck einmal als Frauen- oder Männerstimme, einmal leiser, ein anderes Mal lauter und fröhlicher.

Gesprochene Sprache versteht Mask-Bot allerdings noch kaum. Hören und passende Antworten geben, kann Mask-Bot derzeit nur auf fest programmierten Bahnen. Das allerdings ist kein Spezifikum der neuen Maschine: Die Entwicklung von Programmen, mit denen Roboter tatsächlich in Echtzeit hören und verstehen können, was ein menschliches Pendant gerade sagt, um dann auch noch passend zu antworten, das bleibt weltweit ein riesiges Forschungsthema: „Dafür brauchen wir mehr denn je unsere bereits etablierte internationale Zusammenarbeit“, weiß Kuratate.

Mit Mask-Bot wählt die CoTeSys-Gruppe einen anderen Weg als jenen, die Mimik mit Gesichtseinzelteilen und Dutzenden darunter liegender Mini-Motoren zu imitieren. Denn Mask-Bot wird in der Lage sein, viel schneller als ein recht träges mechanisches Antlitz Sprache und Mimik zu kombinieren. So tüfteln die Münchener Erfinder schon am Nachfolger Mask-Bot 2. Hier werden Maske, Projektor und Computersteuerung in einem mobilen Roboter stecken. Kostete Prototyp 1 noch knapp unter 3.000 Euro, sollen bei seinem Nachfolger 400 Euro in Reichweite kommen. „Neben der Verwendung in Videokonferenzen könnten solche Systeme bald Gesprächspartner für ältere Menschen sein, wenn sie alleine Zeit verbringen müssen“ meint Kuratate.

Am Rande bemerkt. Die Entwicklung von Mask-Bot bietet wieder einmal ein Beispiel, für die Überlegenheit, wissenschaftlicher Zusammenarbeit: Die Entwicklung von Mask-Bot wurde erst möglich durch die Kooperation mit dem National Institute of Advanced Industrial Science and Technology in Japan (AIST). (Guido Deußing)