• Schalter wissen.de
  • Schalter wissenschaft
  • Schalter scinexx
  • Schalter scienceblogs
  • Schalter damals
  • Schalter natur
Scinexx-Logo
Logo Fachmedien und Mittelstand
Scinexx-Claim
Facebook-Claim
Google+ Logo
Twitter-Logo
YouTube-Logo
Feedburner Logo
Montag, 25.09.2017
Hintergrund Farbverlauf Facebook-Leiste Facebook-Leiste Facebook-Leiste
Scinexx-Logo Facebook-Leiste

Computermodell erklärt Lernen

Simulation eines Kubikmillimeters Gehirn bringt neue Erkenntnisse über den Lernprozesse

Wie funktioniert Lernen? Diese Frage ist noch immer ungeklärt. Neue Erkenntnisse darüber hat jetzt jedoch eine Computersimulation geliefert, bei der die Arbeit von mehr als 100.000 Nervenzellen mit jeweils 10.000 Kontaktstellen - das entspricht etwa einem Kubikmillimeter Großhirnrinde – untersucht wurde.
Gehirn

Gehirn

Dass das Gehirn lernen kann, liegt an den besonderen Eigenschaften der Nervenzellen, insbesondere deren Kontaktstellen, der Synapsen. Bei jeder Aktivität des Gehirns werden Informationen in Form von kurzen, elektrischen Impulsen von Zelle zu Zelle weitergegeben - man sagt, die Nervenzellen "feuern". Dabei kann die Weitergabe von Signalen regelrecht geübt werden. Wenn eine Zelle A einen Impuls aussendet, der in Zelle B eine Antwort auslöst, wird der Kontakt von der Zelle A zur Zelle B verstärkt.

Besteht kein derartiger Zusammenhang oder feuert wiederholt B kurz vor A, wird der Kontakt geschwächt. Durch diese so genannte "spike-timing dependent plasticity" (STDP) werden Nervenbahnen durch häufige Wiederholungen ausgebaut. Andere Verknüpfungen hingegen, die selten gebraucht werden, verfallen. Diese "Plastizität" des Gehirns, die Fähigkeit zur physiologischen und strukturellen Veränderung, gilt als Grundlage des Lernens.

100.000 Neuronen bei der Arbeit zugeschaut


In einer aufwändigen Computersimulation von 100.000 Neuronen mit jeweils 10.000 Kontakten haben Wissenschaftler nun Hinweise darauf gefunden, dass STDP alleine noch nicht ausreicht, um Lernvorgänge in Zellen zu erklären. Die Arbeit der Wissenschaftler wird in der Juni-Ausgabe der Zeitschrift Neural Computation publiziert.


Schon in früheren Experimenten konnten die Wissenschaftler vom Bernstein Center for Computational Neuroscience, der Universität Freiburg und vom RIKEN Brain Science Institute in Tokyo um Abigail Morrison, Ad Aertsen und Markus Diesmann zeigen, dass ihre Computersimulation viele Eigenschaften des Gehirns recht gut widerspiegelt. Die virtuellen Neurone feuern mit etwa gleicher Frequenz wie im Gehirn, die Aktivität schaukelt sich weder hoch, noch ebbt sie ab - das System befindet sich in einem "dynamischen Gleichgewicht".

Neu in ihrem Modell ist allerdings, dass die virtuellen neuronalen Verbindungen nun auch die Eigenschaft der Plastizität besitzen. Dazu entwickelte Morrison zunächst eine neue mathematische Formulierung der STDP-Lernregel, welche die in der Literatur publizierten experimentellen Ergebnisse deutlich besser beschreibt. Damit kommt das Modell der Realität noch ein Stück näher.

Wenn sich Nevenzellen abkoppeln


Um zu untersuchen, ob das Computermodell auch Lernvorgänge simulieren kann, regten die Wissenschaftler wiederholt eine bestimmte Gruppe von Neuronen an. Dabei beobachteten sie, dass zunächst genau das passierte, was ein Lernmodell voraussagen würde: Da die stimulierten Neurone die fortwährenden Impulse an die ihnen nachgeschalteten Neurone weitergaben, wurden diese Kontakte verstärkt.

Dies ging aber auf Kosten der Kontakte von anderen vorgeschalteten Zellen im Netzwerk. Die Zellen hörten vornehmlich auf die von außen eingegebenen Signale, dadurch wurden die anderen Kontakte überflüssig und entsprechend abgebaut. Wie die Wissenschaftler feststellten, koppelte sich die ganze Gruppe von Nervenzellen, die auf die Stimulation reagierten, nach einiger Zeit vom Netzwerk ab.

STDP alleine kann also Lernen in einem größeren neuronalen Netzwerk nicht erklären, es müssen weitere Bedingungen erfüllt sein, damit das System tatsächlich lernen kann. Es gibt schon einige Hinweise darauf, was für Bedingungen das sein könnten. Mit der Simulation von großen Netzwerken haben Morrison und ihre Kollegen ein gutes Werkzeug in der Hand, um die verschiedenen Modelle zu überprüfen und sich dem Geheimnis des neuronalen Lernens weiter zu nähern.
(idw - Bernstein Centers for Computational Neuroscience, 25.04.2007 - DLO)
 
Printer IconShare Icon