Anzeige

Kamera kann um die Ecke lesen

System zeigt versteckte Objekte in Mikrometer-Auflösung – trotz rauer Wand als Reflektor

NOn-Line-of-Sight Bildgebung
Das Kennzeichen eines um die Ecke parkenden Autos zu lesen, ist mit dem neuen "Non-Line-of-Sight"-Kamerasystem kein Problem mehr. © Felix Heide/ Princeton University

Verborgenes erspäht: Forscher haben ein Kamerasystem entwickelt, das um die Ecke sehen kann – und dabei selbst kleinste Objekte scharf abbildet. Möglich wird dies durch KI-gestützte Auswertung reflektierter Lichtsignale. Selbst millimeterkleine Buchstaben erscheinen bei einem Meter Abstand und trotz hellem Umgebungslicht noch scharf, wie erste Tests zeigen. Nützlich wäre dieser „Eckenblick“ unter anderem für autonome Fahrzeuge.

Ohne Spiegel um eine Ecke zu sehen ist normalerweise schlicht unmöglich. Denn im Gegensatz zu einem Spiegel sind Hauswände oder andere Alltagsoberflächen zu rau, um eine klare Reflektion zu zeigen. Sie werfen nur diffuses Streulicht zurück, aus dem sich nur schwer Bildinformationen gewinnen lassen.

Signale im Streulicht

Doch dank Lasertechnik und Computerprogrammen haben Forscher in jüngster Zeit Systeme entwickelt, die ein sogenanntes „Non-Line-of Sight“-Sehen möglich machen. Dabei wird ein Laserstrahl so gegen eine Wand gerichtet, dass der reflektierte Strahl das um die Ecke liegende Objekt trifft. Das von diesem Licht reflektierte Licht strahlt auf die Wand zurück und kann nun von einer Spezialkamera eingefangen werden.

Mit bloßem Auge ist dabei jedoch nur ein diffuser heller Fleck zu erkennen – das mehrfach reflektierte Licht ist zu stark gestreut. Deshalb nutzen Wissenschaftler komplexe Auswertalgorithen, um aus den diffusen Signalen die Objektinformationen zu rekonstruieren. Bisher allerdings lieferten solche Kamerasysteme eher unscharfe Bilder mit geringer Auflösung. Zudem funktionieren sie oft nur dann, wenn die Umgebung nicht zu hell ist.

Künstliche Intelligenz als Bildauswerter

Das hat sich nun geändert. Christopher Metzler von der Stanford University und seine Kollegen haben eine Technik entwickelt, die verblüffend scharfe, hochaufgelöste Bilder liefert – und dies bei Tageslicht und mit einer normalen Digitalkamera als Sensor. Möglich wurde dies, weil die Forscher zunächst ein neues physikalisches Modell der Lichtstreuung und des Störrauschens entwickelten und dann ein komplexes neuronales Netzwerk auf Basis dieses Modells trainierten.

Anzeige

„Deep Learning ist ein leistungsfähiges Werkzeug um Bildgebungsprobleme computergestützt zu lösen“, erklären die Forscher. „Aber es benötigt dafür normalerweise immense Mengen an Trainingsdaten.“ Beim „Eckenblick“ jedoch ist es sehr aufwändig, diese großen Mengen an Trainingsbildern zu erzeugen. Deshalb nutzten Metzler und sein Team ihr Model, um diese Trainingsdaten künstlich zu generieren.

Doch würde das ausreichen, um auch echte „Eckenbilder“ erfolgreich auszuwerten?

Versuchsaufbau
Die Versuchsanordnung für den Test des "Eckenblick"-Systems. © Prasanna Rangarajan/ Southern Method University

Auflösung von 300 Mikrometern

Um das zu testen, konstruierten die Forscher eine Testkammer, in der als verstecktes Objekt das Bild eines Buchstabens von einem Zentimeter Höhe stand. Einen Meter davon entfernt lag eine Wand, die als Reflektionsfläche diente. Diese strahlten die Wissenschaftler nun im 45-Grad-Winkel mit einem handelsüblichen Laser an. Gleichzeitig richteten sie die Digitalkamera auf die Wand, um das reflektierte Licht zu fotografieren. Die Bilddaten bekam dann das neuronale Netzwerk zur Auswertung.

Das Ergebnis: Dem KI-System gelang es, die um die Ecke liegenden Buchstaben sichtbar zu machen – und dies überraschend scharf. „Unser System rekonstruierte erfolgreich die Form kleiner, versteckter Objekte in einem Meter Abstand, indem es nur zwei Fotos einer gängigen Kamera mit 1/8 Sekunden Belichtungszeit nutzte“, berichten Metzler und seine Kollegen. Die Auflösung des Systems erreichte dabei selbst bei relativ hellem Umgebungslicht rund 300 Mikrometer.

„Verglichen mit anderen Ansätzen für die Non-Line-of-Sight-Bildgebung ist unser Deep Learning Algorithmus weit robuster gegenüber Störrauschen und kann daher mit viel kürzeren Belichtungszeiten arbeiten“, erklärt Koautor Prasanna Rangarajan from Southern Methodist University.

Nützlich für das autonome Fahren

„Dies ist ein bedeutender Schritt in Richtung einer Non-Line-of-Sight-Bildgebung in Echtzeit und mit hoher Auflösung“, konstatieren die Wissenschaftler. Mit solchen Systemen könnte man beispielweise das Nummernschild eines um die Ecke parkenden Autos sichtbar machen oder an einer Kreuzung versteckte Fußgänger auf Kollisionskurs frühzeitig ausmachen. Ein solcher Eckenblick“ könnte daher vor allem für künftige autonome Fahrzeuge von großem Nutzen sein.

„Non-Line-of-Sight“-Bildgebung hat wichtige Anwendungen in der Navigation, der Robotik, der medizinischen Bildgebung und auch der Verteidigung“, sagt Koautor Felix Heide von der Princeton University. „Unsere Arbeit bahnt diesen Systemen den Weg hin zu einer ganzen Bandbreite solcher Anwendungen.“ (Optica, 2020; doi: 10.1364/OPTICA.374026)

Quelle: The Optical Society

Anzeige

In den Schlagzeilen

Diaschauen zum Thema

Dossiers zum Thema

News des Tages

Gehirn und Gen

Forscher finden Mathe-Gen

Corona: Welche Vitamine sind jetzt besonders wichtig?

Venusgestein gibt es auch auf dem Mond

Deutschlandweite Ausbreitung der Buntzecke

Bücher zum Thema

Die berechnete Welt - Leben unter dem Einfluss von Algorithmen Von Nora S. Stampfl

Smarte Maschinen - Wie Künstliche Intelligenz unser Leben verändert von Ulrich Eberl

Top-Clicks der Woche