Anzeige
Phänomene

2.500 Gigabyte pro Sekunde

Ist das Gehirn zu komplex für einen „Nachbau“?

Es ist offensichtlich, dass sich ein Netzwerk aus rund 1.000 Milliarden Nervenzellen nicht ohne weiteres durch ein analytisches mathematisches Modell beschreiben lässt. Die Situation ist noch hoffnungsloser als der Versuch, die Bewegung aller Teilchen in einem Luftballon zu beschreiben. Während im Luftballon mit etwa 10 hoch 23 Teilchen ein thermisches Gleichgewicht herrscht, in dem einfache globale Größen wie Temperatur und Druck über simple Gleichungen verknüpft werden können, ist ein vergleichbarer Ansatz beim neuronalen Netzwerk kaum möglich.

Diese Grafik verdeutlicht, wie große Massen im Vordergrund das Licht der Hintergrundstrahlung verzerren – ein Störeffekt, der einkalkuliert werden muss. © ESA and the Planck Collaboration

1.000 Milliarden Neuronen mit einer Feuerrate von einem Hertz erzeugen pro Sekunde eine Informationsmenge von 2.500 Gigabyte, wenn man für die Beschreibung von Ort und Zeit eines Aktionspotentials einen Informationsbedarf von nur 20 Bits ansetzt. Diese Information ist auf irgendeine Weise für das verantwortlich, was wir als die erstaunliche Leistung des Gehirns bezeichnen. Mit einfachen globalen Größen werden wir der Frage nach dem Funktionsprinzip des Hirns wohl kaum auf die Spur kommen können.

Gehirn ist „massiv parall“

Die Komplexität der Informationsverarbeitung des Gehirns beruht also vermutlich auf großen Zahlen – und nicht auf hoher Geschwindigkeit. Systeme, die Komplexität aus extrem vielen vernetzten Übertragungselementen erzeugen, bezeichnet man auch als massiv parallel. Parallelität ist ein aktuelles und stark wachsendes Arbeitsgebiet der modernen Informationstechnologie. Das Verknüpfen von Computern zu sehr großen Clustern, die aus zehntausenden von Einzelrechnern bestehen, erlaubt es heute, das Wetter, Verbrennungsprozesse oder Wirtschafts- und Sozialsysteme zu analysieren.

Im Wettbewerb um den leistungsfähigsten Cluster der Welt wird alljährlich die „TOP-500-Liste“ kreiert, die derzeit von einem IBM-BlueGene/L-Rechner am amerikanischen Lawrence Livermore Laboratory mit 131.072 Prozessoren angeführt wird. Es liegt nahe, solche Systeme einzusetzen, um neuronale Netzwerke zu simulieren und besser zu verstehen. Dies geschieht derzeit in einer Reihe von Forschungsprojekten. Am bekanntesten ist vermutlich das an der „Ecole Polytechnique Fédérale de Lausanne“ gerade begonnene BlueBrain-Projekt des Neurowissenschaftlers Henry Markram. Ihm stehen achttausend IBM-Prozessoren zur Verfügung, um große Netzwerke zu simulieren.

Komplexität bremst Simulation

Offensichtlich sind aber selbst einhunderttausend Prozessoren noch zu wenig – verglichen mit 10 hoch 12 Nervenzellen im Kortex. Mit der simplen Gleichung „ein Neuron = ein Prozessor“ werden sich so bald also keine Netzwerke von wirklich biologischer Komplexität simulieren lassen. Dazu bräuchte man zehn Millionen mal mehr Computerknoten im Netzwerk. Natürlich kann ein moderner Prozessor gleichzeitig viele Nervenzellen simulieren, also gewissermaßen ein Teilnetzwerk repräsentieren. Dies verlangsamt jedoch notwendigerweise die Simulation.

Anzeige

Es ist tatsächlich so, dass die Simulation von Netzwerken mit extrem hoher Komplexität zwar möglich ist – jedoch erheblich langsamer abläuft als die Prozesse des biologischen Vorbilds. Dies macht es schwierig, Lernprozesse zu untersuchen, da diese bereits im biologischen System langsam sind: Lernen dauert Stunden, wenn nicht gar Tage oder Monate.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. 8
  18. |
  19. 9
  20. |
  21. weiter

Karlheinz Meier / Universität Heidelberg / Ruperto Carola
Stand: 31.10.2008

Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Auf dem Weg zum künstlichen Gehirn?
Wissenschaftler arbeiten an Computern nach dem Vorbild des Gehirns

Vom Reiskorn zum Moore‘schen Gesetz
Wie weit ist die Informationstechnologie?

Ähnlich aber grundsätzlich verschieden
Strukturelle Unterschiede zwischen Gehirn und Computer

Kein zentraler Takt
Kommunikation von Nervenzellen im Gehirn

2.500 Gigabyte pro Sekunde
Ist das Gehirn zu komplex für einen „Nachbau“?

Ein Kondensator als Nervenzell-Modell
Analoge Technik simuliert biologische Funktion

Plastizität ist Trumpf
Die Herausforderung der künstlichen Synapsen

Ohne Interdisziplinarität geht es nicht
Projekt verbindet Physiker und Neurobiologen

Tausend Kubikmillimeter Kortex
Was bringen die neuen neuronalen Netze?

Diaschauen zum Thema

News zum Thema

Gehirn denkt weniger chaotisch als gedacht
Neuronale Aktivität manchmal erstaunlich gut vorhersagbar

Schnellster Laufroboter der Welt lernt Bergsteigen
Forscher simulieren neuronale Grundlagen der Bewegungsanpassung

Laufroboter mit Nervensystem
Heuschrecken als Vorbild für neuronale Steuerung von Maschinen

Dossiers zum Thema