• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Sonntag, 04.12.2016
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Bewegte 3D-Gesichter aus Internetfotos

Gesichtserkennung stellt typische Mimik von Berühmtheiten nach

Warum sieht Tom Hanks aus wie Tom Hanks? Forscher haben bewegte 3D-Modelle von Prominentengesichtern erstellt, die ihren Vorbildern nicht nur verblüffend ähnlich sehen, sie können sogar ihre Minik genau wiedergeben. Das Besondere daran: Für die Modelle benötigen die Wissenschaftler nur Fotos aus dem Internet. Dieser Fortschritt der Gesichtserkennung soll in Zukunft virtuelle Abbilder erstellen, mit denen man wie mit echten Person interagieren und sich unterhalten kann.

Animierte 3D-Modelle übernehmen die typische Mimik von Schauspielern.

Schauspieler wie Daniel Craig oder Tom Hanks erkennen wir auf der Leinwand oder auf dem Bildschirm, auch wenn sie über Jahre hinweg völlig unterschiedliche Rollen spielen. Mal sehen sie jünger oder älter aus, mal gut gepflegt oder heruntergekommen, aber dennoch erkennen wir sie wieder. Aber woran liegt das? Sind es die einzigartigen Gesichtszüge, typische Bewegungen oder charakteristische Gesichtsausdrücke?

Was das Gesicht einer Person so einzigartig und wiedererkennbar macht, haben Forscher der University of Washington in Seattle um Supasorn Suwajanakorn am Computer untersucht: Sie versuchen, die charakteristischen Merkmale berühmter Persönlichkeiten so originalgetreu wie möglich nachzustellen. "Was Tom Hanks wie Tom Hanks aussehen lässt, lässt sich mit einem Computersystem demonstrieren, welches imitiert, was Tom Hanks tun wird", sagt Suwajanakorn.

Originalgetreue Modelle von Berühmtheiten


Computer können mittlerweile viel mehr als lediglich Gesichter erkennen. Mit geeigneten Algorithmen können sie auch Gesichter verfolgen, Gesichtsausdrücke erkennen und die Mimik eines Gesichtesauf ein anderes live übertragen. Doch die Technik dazu ist in der Regel noch recht aufwändig. Soll eine bestimmte Person im Computer nachgestellt werden, benötigt der Rechner zunächst das Original als Vorlage, um ein Abbild erstelllen zu können.


Das von Suwajanakorn und Kollegen entwickelte System kommt auch ohne den echten Tom Hanks oder Daniel Craig aus: "Wir haben uns gefragt: 'Kann man Fotos aus dem Internet oder aus der eigenen Fotosammlung nehmen und ein Modell animieren, ohne die Person vor der Kamera zu haben?'" sagt Studienleiterin Ira Kemelmacher-Shlizerman.

Schauspieler im Computer: Die 3D-Modelle entstehen anhand von Bildern aus dem Internet.

Schauspieler im Computer: Die 3D-Modelle entstehen anhand von Bildern aus dem Internet.

Videotelefonate in 3D


Das System kann: Es lernt die typischen Gesichtsausdrücke der Schauspieler aus dem Internet. Aus mindestens 200 Bildern in unterschiedlichen Situationen generiert die Software ein dreidimensionales Modell der gewünschten Person. Dabei berücksichtigt sie auch kleinste Unterschiede wie etwa ein typisches Lächeln. Das Modellgesicht bewegt sich anschließend genau wie das Original. Kontrolliert werden die Bewegungen entweder durch Videodaten oder die Bewegungen einer anderen Person.

Zusammen mit der passend nachgestellten Stimme und Sprechweise soll so in Zukunft auch täuschend echte Interaktion mit solchen Computermodellen möglich sein. Nicht nur Berühmtheiten, auch Personen aus dem eigenen Umfeld ließen sich aus wenigen Bildern nachstellen: "Eines Tages kann man vielleicht eine 3D-Brille aufsetzen und es sitzt ein 3D-Modell der eigenen Mutter auf der Couch", so Kemelmacher-Shlizerman. Diese Technologie könnte zum Beispiel Videotelefonate um eine zusätzliche Dimension erweitern.

George Clooney mit Ausdruck von George Bush


Auf diesem Wege könnte es auch bald möglich sein, dem Lieblingsschauspieler im Computer direkt zu begegnen und sich mit ihm zu unterhalten. Dazu müssen die virtuellen Persönlichkeiten und auch die 3D-Displaytechnologie allerdings noch verbessert werden. "Einer der wirklichen Tests ist: 'Kann man sie Dinge sagen lassen, die sie nicht gesagt haben – aber es fühlt sich dennoch so an?'", erklärt Koautor Steve Seitz.

Auch das gelingt mittlerweile: Sogar die Ausdrucksweise einer Person lässt sich auf das Modell einer anderen übertragen, wie Seitz verdeutlicht: "Wir haben gezeigt, dass man den Ausdruck und die Mundbewegungen von George Bush nehmen kann und wie die von George Clooney aussehen lassen kann."
(University of Washington, 08.12.2015 - AKR)
 
Printer IconShare Icon