• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Sonntag, 22.01.2017
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Geschärfter Blick ins Gehirn

Forscher entwickeln Bildglättungsmethoden für Magnetresonanz-Aufnahmen

Seit einigen Jahren sind sie vermehrt in Forschung und Medien zu finden: Schnittbilder des menschlichen Gehirns, auf denen farbig die Aktivitäten einzelner Hirnareale sichtbar sind. Doch von den rohen Messdaten zu den bunten Bildern ist es ein weiter Weg: bisher sind aufwendige statistische Analysen notwendig, um die gewünschten Informationen aus dem Hintergrundrauschen herauszufiltern. Forscher haben nun neue Bildglättungsmethoden entwickelt, mit denen sie wichtige Signale in den Magnetresonanz-Aufnahmen von Gehirnen identifizieren können.
Gehirn

Gehirn

Jörg Polzehl und Professor Vladimir Spokoiny vom Weierstraß-Institut für Angewandte Analysis und Stochastik (WIAS) in Berli arbeiten seit Jahren an neuartigen Verfahren der Bilddatenverarbeitung, die bei den Aufnahmen der „funktionellen Magnetresonanztomografie" (fMRI)gerade ihre Praxistauglichkeit unter Beweis stellen.

Die Analyse von fMRI-Daten ist ein mathematisches Kunststück. Bei einem Gespräch in seinem Büro zeigt Polzehl anhand einer Computersimulation, wie ein gesuchtes Signal der Gehirnaktivität aussehen könnte. Auf seinem Monitor ist eine Draufsicht ins Gehirn von der Nasenhöhle bis zum Hinterkopf zu sehen, ein bananenförmiger, roter Fleck im Bereich des Stirnhirns steht für Aktivität. Im wirklichen Leben wäre dieser Fleck genau das, wonach die Ärzte suchen.

Doch so genau kann kein Verfahren die Aktivität darstellen. Auf Knopfdruck simuliert der Wissenschaftler einige Fehlerquellen, die bei echten fMRI-Experimenten unvermeidbar sind: Hintergrundrauschen, Inhomogenitäten des verwendeten Magnetfeldes und sogar der Herzschlag des Patienten stören die Messungen.


Fehlinterpretationen inklusive


Und dann gibt es noch das "multiple Testproblem". So nennen Statistiker die Schwierigkeit, dass die riesige Anzahl an Messdaten zwangsläufig zu Fehlinterpretationen führt. Für den Scan wird der Kopf in über 100.000 kleine Würfel unterteilt, so genannte Voxel, die jeweils einzeln über eine bestimmte Zeit beobachtet werden.

Die jeweilige Zeitreihe wird statistisch untersucht: Handelt es sich um Aktivität in dem Voxel oder nicht? Wegen der Störquellen ist diese Entscheidung immer fehlerbehaftet. Die große Anzahl an Voxeln sorgt dann selbst bei kleiner Fehlerwahrscheinlichkeit dafür, dass immer eine gewisse Menge echter Signale übersehen oder Rauschen irrtümlich als Signal gedeutet wird. Polzehls Computersimulation zeigt nun nur noch einen diffusen roten Fleck im Bereich des Stirnhirns, dafür aber viele kleine, über das gesamte Gehirn verteilte rote Flecken. So würden unter realistischen Bedingungen die echten Messergebnisse aussehen; von der Bananenform des Signals ist nichts mehr zu erkennen.

Rekonstruktion des Signals


Ziel einer statistischen Analyse ist es, aus diesen Daten möglichst gut das ursprüngliche Signal zu rekonstruieren. Das traditionelle Vorgehen besteht darin, über Gruppen benachbarter Voxel zu mitteln. Das Bild wird auf diese Weise geglättet, einzelne Störsignale verschwinden, und Signale über größere Bereiche verschmelzen zu einem stärkeren Signal.

Polzehls Computersimulation zeigt das Ergebnis des traditionellen Verfahrens: die vielen kleinen roten Fehlalarm-Flecken sind verschwunden, während der große Fleck im Bereich des Stirnhirns deutlich zu sehen ist, aber statt bananenförmig jetzt diffus und kreisförmig aussieht. Das zeigt auch den Nachteil dieser Methode: Die Informationen über Struktur und Form der Bildbestandteile gehen durch das Glätten zum Großteil verloren, das Bild verschwimmt.

Glätten ohne zu zerstören


Hier setzen die von Polzehl und Spokoiny entwickelten, so genannten struktur-adaptiven Verfahren an. Ziel ist es, Bilder zu glätten, ohne Strukturen und Kontrast zu zerstören. Polzehls Simulation zeigt, wie erstaunlich gut diese Verfahren die ursprünglichen fMRI-Signale rekonstruieren können: nicht nur die Störsignale sind verschwunden, sondern auch das Stirnhirnsignal ist bestens sichtbar, und zwar fast exakt in seiner ursprünglichen Form.

Die Besonderheit des neuartigen Glättungsverfahrens von Polzehl und Spokoiny liegt in einer schrittweisen Anpassung an die Struktur des Bildes. Ein Computerprogramm legt für jeden Bildpunkt zunächst eine kreisförmige Umgebung fest. Anschließend testet das Programm, inwieweit die Bildparameter innerhalb und in der Nähe dieser Umgebung einander ähnlich sind, und passt die Form der Umgebung Schritt für Schritt an, bevor es das Bild schließlich glättet.

Davon können beispielsweise auch Krebspatienten profitieren: Liegt etwa ein Bildpunkt der fMRI-Aufnahme am Rand eines Tumors, so kann die anfängliche Umgebung kreisförmig über den Tumor hinausragen. Klassische Verfahren würden einfach innerhalb dieses Kreises glätten und so den Rand des Tumors verwischen. Nicht so die Methode von Polzehl und Spokoiny: Hier erkennt das Computerprogramm anhand der Bildparameter, dass der Kreis aus zwei verschiedenartigen Geweben besteht. Das Programm verkleinert also die Umgebung und passt ihre Form an den Tumorrand an. Das Ergebnis: Die feine Randstruktur bleibt erhalten, und der Arzt kann den Tumor viel exakter gegen das umliegende Gewebe abgrenzen, als es mit den klassischen Verfahren möglich wäre.

Auf dem Weg zur Praxistauglichkeit


Diese optimale Erhaltung von Kanten und Kontrast ist es, die die Methode gegenüber "traditionellen" Glättungsverfahren auszeichnet. Dabei war die Forschung von Polzehl und Spokoiny zunächst rein theoretischer Natur. Der Anstoß zur Entwicklung praktischer Anwendungen ist zum Teil einem Zufall zu verdanken, wie Polzehl erzählt: Als Spokoiny vor einigen Jahren eine Arbeit zur einer theoretischen Frage der Bildglättung zur Veröffentlichung an eine Zeitschrift geschickt hatte, wollte einer der Gutachter ein Beispiel durchgerechnet haben. Also wurde das Verfahren an einem (damals noch sehr künstlichen) Bild erprobt. Schnell stellte sich heraus, dass für die Praxistauglichkeit noch viele Verbesserungen notwendig waren; das Interesse an einer praktischen Anwendung des Verfahrens war aber geweckt.

Seit einem Jahr werden die strukturadaptiven Verfahren auch an Messdaten der Charité getestet. Ehrgeiziges Ziel ist es, die neuartigen Verfahren direkt in den Analyseprozess einzubinden und die Methoden für den tatsächlichen Ablauf in der Praxis zu optimieren. Dabei ist man diesem Ziel in den letzten Jahren schon bedeutend näher gekommen: Während die Analyse eines einzigen Bildes anfangs noch 24 Stunden dauerte, ist die Glättung einer räumlichen fMRI-Aufnahme, die aus einer Vielzahl von Bildern besteht, inzwischen in etwa 20 bis 30 Sekunden berechnet.

Die Weiterentwicklung der Algorithmen geht Hand in Hand mit einer Verbesserung der zugrundeliegenden Theorie. So haben Polzehl, Spokoiny und Kollegen in mehreren Publikationen das Verfahren auf allgemeinere Fehlerverteilungen ausgedehnt, mathematische Theoreme zur Stabilität des Verfahrens ausgearbeitet und "lokal polynomiale" Verfahren entwickelt, die die Inhomogenitäten des fMRI-Magnetfeldes noch besser ausgleichen können.

Auch in Zukunft wird den Forschern die Arbeit wohl nicht ausgehen: schon jetzt feilen sie an den nächsten Erweiterungen des Verfahrens. In Zusammenarbeit mit Wissenschaftlern der Cornell University wollen sie bei der so genannten Diffusionstensor-Bildgebung einzelne Nervenfasern im Gehirn noch besser sichtbar machen.
(idw - Forschungsverbund Berlin, 21.09.2005 - DLO)
 
Printer IconShare Icon