Anzeige
Phänomene

Parallelrechner „entschleiert“ die Bilder

CCD-Kamera und Computer als Hilfsmittel

Architektur des Herpes-Virus © MPG/MPI für Biochemie

Im Gegensatz zur Computertomographie in der Klinik ist es bei der Elektronentomographie nicht sinnvoll, das Mikroskop rund um das Objekt zu führen. Hier wird die Zelle gedreht, während die „Lichtquelle“, also die Quelle der Elektronenstrahlen, an ihrem Platz bleibt. Das klingt einfach, ist aber in der Praxis mit einer Reihe von Problemen verbunden. So verschiebt sich bei jedem Kippschritt das Gesichtsfeld ein wenig – der Elektronenstrahl muss deshalb neu ausgerichtet und wieder genau auf das Objekt fokussiert werden. Würde man dies von Hand machen, wäre die Zelle unter dem Elektronenbeschuss schon nach den ersten Bildern verkohlt.

Die Martinsrieder nehmen eine höchst empfindliche CCD-Kamera und den Computer zu Hilfe. Er wertet bei jedem Schritt das registrierte Bild aus, positioniert die Zelle wieder exakt und fokussiert auf die richtige Stelle – alles automatisch. Und während der ganzen Zeit wird der Elektronenstrahl zur Seite abgelenkt und kann deshalb das Objekt nicht schädigen. „Auf diese Weise gelingt es uns, rund 97 Prozent der Strahlendosis für das Aufnehmen der Bilder zu verwenden“, sagt Harald Engelhardt, „nur drei Prozent benötigen wir für die Einstellung des Mikroskops.“

Eine weitere Schwierigkeit: Die Probe lässt sich nicht aus allen Richtungen durchleuchten; ein gewisser Winkel wird immer durch den Probenhalter verdeckt. Diese Daten fehlen später bei der Rekonstruktion der Bilder zum 3-D-Objekt. Neuerdings versuchen die Forscher, diese Informationslücke dadurch zu verringern, dass sie die Probe in einem eigens konstruierten Dreh-Kipphalter nach einer Bilderserie um 90 Grad drehen und dann eine zweite Sequenz aufnehmen.

Objekte aus der Datenflut herausfiltern

Sind die Bilder erst einmal im Kasten, sprich Computer, beginnt die zeitaufwändige Verarbeitung der Daten. Aufgrund der extrem geringen Dosis sind die Einzelbilder sehr verrauscht – oft erkennt das menschliche Auge darauf nur schemenhafte Schleier. Die Aufgabe der Martinsrieder Bildverarbeiter um Reiner Hegerl ist es nun, diese Schleier zu lüften und die Bilder so zu kombinieren und aufzubereiten, dass man aus der Datenflut Objekte herausfiltern kann, die sich klar von der Umgebung abgrenzen lassen. „Man muss die relevanten Daten erkennen und vom überlagernden Rauschen befreien“, schildert Harald Engelhardt das Vorgehen, „wir erproben zur Zeit unterschiedliche Verfahren. Die Astronomen haben übrigens ähnliche Probleme, wenn sie winzige Lichtsignale aus dem Rauschen des Nachthimmels herausfiltern wollen.“

Gigabyte von Informationen müssen bei dieser Aufgabe transportiert, durchforstet und gegeneinander verrechnet werden. Noch vor wenigen Jahren wären die Computer an dieser gigantischen Aufgabe gescheitert. Erst heute stehen potente Parallelrechner zur Verfügung, etwa ein Linux-Cluster in Martinsried, das Rechenzentrum der Max-Planck-Gesellschaft in Garching sowie eine Reihe leistungsfähiger Workstations im Institut.

Anzeige
  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. weiter


Stand: 18.03.2004

Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Neuland in drei Dimensionen
Ein Blick ins Innere der Zelle

Zu viele Elektronen sind der Zelle Tod
Bestrahlungszeit darf nicht zu hoch sein

Keine Zeit für Eiskristalle
Entwicklung der Kryo-Elektronentomographie

Parallelrechner „entschleiert“ die Bilder
CCD-Kamera und Computer als Hilfsmittel

Das Chaos ordnen
Der Computer muss alles ertasten

„Phantomzellen“ als Testobjekt
Auf die Gesamtschau kommt es an

Mit „Salami-Taktik“ an dicke Zellen
Auf der Suche nach Neuland

Diaschauen zum Thema

keine Diaschauen verknüpft

News zum Thema

keine News verknüpft

Dossiers zum Thema