• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Montag, 20.08.2018
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Hilfe von den Algorithmen

Wie die Daten korrigiert und kombiniert werden

Am Ende des Prozesses soll die "Marie"-Radarmethode ein Bild des Raumes erzeugen, das auch Informationen über die Verteilung der Materialien enthält. Die Forscher müssen dafür die Materialcharakterisierung mit der Radar-Bildgebung kombinieren.

Ein Radarbild vor der Korrektur der Systemfehler kommt zunächst unscharf daher.

"Der Knackpunkt ist, dass kein Messsystem ideal ist. Es entstehen Fehler bei der Messung, die wir korrigieren müssen", sagt Jan Barowski von der Ruhr-Universität Bochum. Ein Beispiel für eine von vielen Fehlerquellen: Auf der Strecke zwischen Radargerät und Objekt geht Signalleistung verloren – das muss bei der Analyse berücksichtigt werden. In seiner Doktorarbeit entwickelte Barowski Algorithmen, um diese Signalverluste zu kompensieren und Fehler aus internen Quellen des Messsystems systematisch zu korrigieren.

Das Bild entsteht im Rechner


Eine weitere Herausforderung: "Bislang wird die Materialcharakterisierung nur an definierten Stellen durchgeführt, wie wenn man mit einer Nadel auf ein Objekt sticht", erklärt Barowski. Ein Radarsignal in ein aussagekräftiges Bild umzuwandeln erfordert daher hohen Rechenaufwand. "Die Daten, die wir aufzeichnen, sind etwa so wie von einer Kamera, der die Linse zum Fokussieren fehlt", vergleicht Barowski. Eigentlich punktförmige Objekte erscheinen in den Rohdaten zunächst in Bananen- oder Kreisform. Die Fokussierung erfolgt nachträglich durch die Signalverarbeitung im Rechner.

Nach der Korrektur mithilfe der Algorithmen sind die Strukturen im Radarbild klar zu erkennen.

Nach der Korrektur mithilfe der Algorithmen sind die Strukturen im Radarbild klar zu erkennen.

Auch dafür hat der Ingenieur Algorithmen konzipiert, die in Echtzeit Fehler aus den Bildern herausrechnen. "Als ich angefangen habe, hat eine solche Korrektur noch zehn Stunden gedauert", erinnert er sich. Heute läuft die Auswertung über eine Laptop-Grafikkarte in Echtzeit. "Die Rechenarchitektur einer Grafikkarte ist perfekt geeignet für unsere Zwecke", erklärt Barowski.

Durch die Platte schauen


Im Labor an der Ruhr-Universität Bochum kann man diese Technik schon in Aktion erleben und mittels Radarblick durch eine Rigipsplatte hindurchschauen. Zwei Radargeräte sind dafür auf einer beweglichen Schiene montiert. Das eine misst die Position des Systems zu einem festen Bezugspunkt im Raum, das andere durchleuchtet den Bereich unter der Rigipsplatte und kann dort versteckte Objekte sichtbar machen.

Radartest im Labor der Ruhr-Universität. Das hellgrüne Objekt ist der Radarsender und -empfänger.

Fahren die Radargeräte an der Platte entlang, wird auf einem Laptop in Echtzeit ein Bild der darunterliegenden Objekte sichtbar. Nicht nur die Algorithmen für die Signalverarbeitung stammen dabei aus dem eigenen Haus, sondern auch die Radargeräte. Erforscht werden die Radarsysteme für „Marie“ unter anderem an der RUB von Nils Pohl und Thomas Musch in enger Kooperation mit Werner Prost von der Universität Duisburg-Essen.

Jan Barowski zieht ein Zwischenfazit: "Wir können mit unserem jetzigen System schon ganz gut erkennen, wo ein Objekt ist – und auch, dass es aus einem anderen Material bestehen muss als zum Beispiel der Untergrund, auf dem es liegt", sagt er. "Der nächste Schritt ist zu erkennen, was das Objekt ist." Auch die Permittivität von Kunststoffen können die Ingenieure bereits gut bestimmen. "Aber noch können wir nicht sagen, es ist dieser oder jener Kunststoff, da die Werte teilweise nah beieinander liegen", so der Forscher weiter.
Julia Weiler, Ruhr-Universität Bochum/ RUBIN
Stand: 09.02.2018
 
Printer IconShare Icon