Laseraugen und GPS - scinexx | Das Wissensmagazin
Anzeige
Anzeige

Laseraugen und GPS

Rettungsroboter lernen sehen

KURT 3D © Fraunhofer AIS

Roboter lernen sehen – und müssen dies auch. Denn sobald der Kontakt mit seinem Einsatzleiter abreißt, ist der Roboter auf sich allein gestellt. Er scannt den Raum, „sieht“ Wände, Hindernisse und Wege – und wählt unabhängig den Weg, der den größten Erfolg verspricht.

Maschinen, die wie ferngesteuerte Spielzeugwagen von ihren Betreuern per Funk gelenkt werden, sollen bald endgültig der Vergangenheit angehören. Heute konzentriert sich die Forschung auf die Entwicklung autonomer Roboter, die ohne eine direkte Steuerung des Menschen funktionieren. Denn gerade Rettungs-Roboter sollen genau dort ihre Aufgabe erfüllen, wo keine menschlichen Helfer mehr hinkommen: enge Schächte, brennende Häuser oder eingestürzte Stockwerke.

Laseraugen für die Orientierung

KURT 3D in der Werkstattumgebung © Fraunhofer AIS

Damit die Roboter in dem unübersichtlichen Gelände ihren Weg finden, sehen sie je nach Arbeits-Umgebung und Funktion mit unterschiedlichen „Augen“. Zur Grundausstattung gehört dabei die gewöhnliche Video-Linse, die den Raum visuell aufzeichnet. Das System überträgt das Bild per Funk an die Rettungsleiter, die so per Bildschirm die Umgebung des Roboters beobachten können. Damit der Roboter jedoch selbst aus dem Videobild Informationen über den Raum ziehen kann, ist eine umfangreiche Bildauswertung notwendig, die dann etwa per Farbanalyse bunte Kleidungsstücke von grauen Trümmern unterscheidet.

Die wichtigsten Orientierungs-Sensoren für Roboter sind jedoch die aus Hollywood-Filmen berühmten roten Laseraugen. Der „Laser Range-Finder“ sendet einen Lichtimpuls, der von Objekten reflektiert, und auf dem Rückweg vom Sensor wieder aufgefangen wird. Die Zeit zwischen Senden und Empfangen verrät dem System den Abstand vom Objekt. Zusätzlich aber zeigt der „Doppler-Effekt“, eine Verschiebung in der Strahlungsfrequenz, auch in welche Richtung sich das Objekt mit welcher Geschwindigkeit bewegt.

Kartierung im Untergrund

Das Robotik Team der amerikanischen Carnegie Mellon Universität hat beispielsweise mit Lasertechnik eine stillgelegte Mine in Burgesttown komplett kartiert. Während sich ihr Roboter-Fahrzeug „Groundhog“ durch den roten Schlamm kämpft, scannt sein vertikaler 2D-Laser den Tunnel und erstellt zunächst eine einfache zwei-dimensionale Karte. Kurz darauf jagt der Laser zusätzlich über die Horizontale, und fügt die Werte der Karte hinzu. Dadurch bekommt der Minengang auf der Karte dann eine Decke, einen Boden und zwei Wände. Mithilfe geometrischer Berechnungen erzeugt der Roboter damit eine dreidimensionale Darstellung der Mine. Doch diese Technik funktioniert nur in komplett geschlossenen und ebenen Räumen. Eine Navigation für Roboter auf freier Fläche oder einem extrem zerklüfteten Katastrophengelände mit dieser Methode ist dagegen sehr schwierig.

Anzeige

Wie KURT 3D die Welt sieht. © Fraunhofer AIS

Die Navigation in geschlossenen Räumen ist auch für den kleinen Roboter „KURT“ der Fraunhofer Gesellschaft das Spezialgebiet. Er bewegt sich mit einem 3D-Laser Range-Finder so sicher durch das ungleichmäßige Hindernisfeld des Rescue Robot League 2004, dass er den zweiten Platz machte. Sein zweidimensionaler Laser rotiert horizontal und lotet die Umgebung in mehreren Durchläufen aus. Eine Fläche von 180 Grad Höhe mal 120 Grad Breite scannt er in bis zu zwei Sekunden. Um eine lückenlose räumliche Darstellung zu errechnen, werden die 3-D Aufnahmen in ein Koordinatensystem eingefügt, wodurch der Roboter seine genaue Position errechnet. Diese bislang wohl genaueste Bestimmungsmethode für Roboter bildet damit nicht nur den unwegsamen Untergrund ab, sondern auch Überhänge, Nischen und Durchbrüche.

Autorennen für autonome Roboter

Zu einem Wettbewerb der besonderen Art ist die „Grand Challenge“ heran gewachsen. In dem fast 250 Kilometer langen Autorennen durch die amerikanische Wüste müssen Roboter selbst die Strecke finden und ihre Jeeps um natürliche und künstliche Hindernisse herumsteuern. Für das weite, offene Gelände kombinieren die Techniker mehrere Sensoren für eine bessere Orientierung der automatischen Steuerung. Das Team der Carnegie Mellon Universität installierte dazu auf seinem Fahrzeug ein Langstrecken-Radar mit 125 Metern Reichweite, ein Kurzstrecken-Radar bis 75 Meter, ein Lasersystem für den Bereich bis 50 Metern und ein Laser für den Nahbereich bis 25 Metern. Ergänzend wurde der jeweilige Standpunkt des Jeeps mit dem Globalen Positionierungs-System (GPS) bestimmt. Die weit reichenden Radare ermöglichten ein frühzeitiges Erkennen von Hindernissen, wodurch das Fahrzeug selbst bei hoher Geschwindigkeit rechtzeitig ausweichen konnte. Mit den Informationen der Laser brauchte der Roboter nur noch die genaue Bewegung im Nahbereich anzupassen.

In der Hochburg für deutsche Roboterforschung an der Universität Bremen arbeiten die Wissenschaftler bereits an der Navigation in Extremgebieten. Auch die bisherigen Methoden für 3D-Modelle gehen zunächst von einer zweidimensionalen Karte aus, weshalb die Roboter sich nur auf einer zumindest nahezu ebenen Fläche orientieren können. Die Arbeitsgruppe um Bernd Krieg-Brückner und Udo Frese dagegen forscht an einem „Simultaneous localization and mapping“ (SLAM) Programm, dass Robotern schon beim ersten Schritt die Positionierung in einem dreidimensionalen Raum ermöglichen soll. Damit wäre nicht nur die Navigation in völlig unebenen Trümmerhaufen möglich, sondern auch in dem Auf und Ab von Planetenoberflächen wie auf dem Mars.

Das Programm muss sich inzwischen direkt bei ihrem Bremer Kollegen Frank Kirchner unter Beweis stellen. Denn sein Roboter „Scorpion“ führt die weltweite Konkurrenz unter den mehrbeinigen Laufmodellen an. Durch acht Beine kann sich der Roboter nicht nur auf ebenen Flächen, wie seine Rad-betriebenen Kollegen, sondern auch auf groben und abschüssigem Geröll gut bewegen. Damit er sich dort aber nicht verirrt, suchen die Wissenschaftler nach einer Kombination von SLAM, GPS und anderen Sendern, um eine zentimeter-genaue Navigation im dreidimensionalen Raum zu ermöglichen.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. weiter


Stand: 10.03.2006

Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Lebensretter aus Silizium und Stahl
Roboter im Katastropheneinsatz

Einsatz am World Trade Center
Roboter im Rettungsdienst

Laseraugen und GPS
Rettungsroboter lernen sehen

Rollen oder Laufen?
Das Problem Fortbewegung

Roboter retten Leben
Hilfe im Katastrophenfall

Zukunftvisionen mit Hindernissen
Noch bremsen Probleme den professionellen Einsatz

Roboter lernen entscheiden
Interview mit Professor Frank Kirchner von der AG Robotik an der Universität Bremen

Diaschauen zum Thema

keine Diaschauen verknüpft

News zum Thema

keine News verknüpft

Dossiers zum Thema

Hurrikans - Zerstörerische Wirbelstürme im Aufwind?

Erdbeben - Vorhersagbar oder aus heiterem Himmel?

Anzeige
Anzeige