Anzeige
Technik

An den Grenzen des Rechnens

Warum neuromorphes Rechnen Zukunft hat

Manche Wissenschaftler halten das neuromorphe Rechnen schlichtweg für einen überflüssigen Weg. Mit der stetigen Zunahme der Leistungsstärke von Großrechnern, lautet eines ihrer Argumente, würden die geschilderten Defizite von selbst verschwinden. Das letzte Jahrzehnt aber hat gezeigt, dass die in die Großrechner gesetzten Erwartungen das technisch tatsächlich Mögliche weit überstiegen haben.

neuromorpher Chip
Dieser neuromorphe Chip enthält 384 künstliche Nervenzellen und 100.000 Synapsen. © Universität Heidelberg / Ruperto Carola

Die Miniaturisierung der Elektronik, die Basis unserer Computertechnologie, hat sich erheblich verlangsamt – in Fachkreisen wird derzeit nicht mehr diskutiert, ob die Verkleinerung je ein Ende finden wird, sondern wann es soweit sein wird. Auch der Energieverbrauch der Schaltkreise nimmt schon seit geraumer Zeit nicht mehr so schnell ab, wie es notwendig wäre, wollte man an die Leistungssteigerungen der vergangenen Jahrzehnte anschließen.

Künstliche Synapsen auf einem Siliziumchip

Auch jenseits dieser Ressourcenaspekte halten wir das neuromorphe Rechnen für einen wegweisenden Ansatz, um eine biologisch inspirierte Künstliche Intelligenz zu realisieren. Es geht beim neuromorphen Rechnen darum, die aktuell bekannten biologischen Strukturen des Nervensystems möglichst unmittelbar auf elektronische Schaltungen zu übertragen.

Es ist uns beispielsweise gelungen, einzelne Neuronen mitsamt ihren Synapsen – den Kontaktstellen zwischen Nervenzellen, an denen Impulse übertragen werden – als mikroelektronische Schaltungen auf Siliziumchips nachzubilden. Diese Schaltungen haben so viele Eigenschaften wie irgend möglich mit ihren natürlichen Vorbildern gemeinsam – in dem physikalischen Modell steckt das komplette, dem heutigen Stand der Forschung entsprechende biologische Wissen. Andere Forscherteams haben künstliche Synapsen auf Basis von Magnetschaltungen oder photonischen Bauteilen konstruiert.

Die Beschränkungen des derzeit Machbaren werden dabei teilweise von der Neurowissenschaft, teilweise von der Mikroelektronik vorgegeben: So erlaubt es die Mikroelektronik nicht, die für das Lernen verantwortlichen Nervenzell-Verschaltungen in ihrer vollen Komplexität nachzubauen – dafür ermöglicht sie es, die Geschwindigkeit der natürlichen Vorgänge nicht nur nachzuahmen, sondern sogar signifikant zu beschleunigen.

Anzeige

Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. weiter
Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Wie Maschinen das Lernen lernen
Neuromorphes Rechnen soll KI-Systeme leistungsfähiger machen

Vorbild Gehirn
Von Neuronen zur KI

Lernen wie die Neuronen
Wie funktioniert das neuromorphe Rechnen?

An den Grenzen des Rechnens
Warum neuromorphes Rechnen Zukunft hat

Erst der Anfang
Rechnen mit dem hybriden Plastizitätsmodell

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema