Lernen im Computermodell

Wissenschaftler erforschen Lernvorgänge durch die Computersimulation eines Kubikmillimeters Gehirn.

Dass das Gehirn lernen kann, liegt an den besonderen Eigenschaften der Nervenzellen, insbesondere deren Verbindungen, der Synapsen. Bei jeder Aktivität des Gehirns werden Informationen in Form von kurzen, elektrischen Impulsen von Zelle zu Zelle weitergegeben - man sagt, die Nervenzellen "feuern". Dabei kann die Weitergabe von Signalen regelrecht geübt werden. Wenn eine Zelle A einen Impuls aussendet, der in Zelle B eine Antwort auslöst, wird der Kontakt von der Zelle A zur Zelle B verstärkt. Besteht kein derartiger Kausalzusammenhang oder feuert wiederholt B kurz vor A, wird der Kontakt geschwächt. Durch diese so genannte "spike-timing dependent plasticity" (STDP) werden Nervenbahnen durch häufige Wiederholungen ausgebaut. Andere Verknüpfungen hingegen, die selten gebraucht werden, verfallen. Diese "Plastizität" des Gehirns, die Fähigkeit zur physiologischen und strukturellen Veränderung, gilt als Grundlage des Lernens. In einer aufwändigen Computersimulation von 100.000 Neuronen mit jeweils 10.000 Kontakten - das entspricht etwas einem Kubikmillimeter Großhirnrinde - haben Abigail Morrison, Ad Aertsen und Markus Diesmann nun Hinweise darauf gefunden, dass STDP alleine noch nicht ausreicht, um Lernvorgänge in Zellen zu erklären. Die Arbeit der Wissenschaftler vom  Bernstein Center for Computational Neuroscience, der Universität Freiburg und vom RIKEN Brain Science Institute in Tokyo wird in der Juni-Ausgabe der Zeitschrift Neural Computation publiziert.

Schon in früheren Experimenten konnten die Wissenschaftler zeigen, dass ihre Computersimulation viele Eigenschaften des Gehirns recht gut widerspiegelt. Die virtuellen Neurone feuern mit etwa gleicher Frequenz wie im Gehirn, die Aktivität schaukelt sich weder hoch, noch ebbt sie ab - das System befindet sich in einem "dynamischen Gleichgewicht". Neu in ihrem Modell ist allerdings, dass die virtuellen neuronalen Verbindungen nun auch die Eigenschaft der Plastizität besitzen. Dazu entwickelte Morrison zunächst eine neue mathematische Formulierung der STDP-Lernregel, welche die in der Literatur publizierten experimentellen Ergebnisse deutlich besser beschreibt. Damit kommt das Modell der Realität noch ein Stück näher.

Um zu untersuchen, ob das Computermodell auch Lernvorgänge simulieren kann, regten die Wissenschaftler wiederholt eine bestimmte Gruppe von Neuronen an. Dabei beobachteten sie, dass zunächst genau das passierte, was ein Lernmodell voraussagen würde: Da die stimulierten Neurone die fortwährenden Impulse an die ihnen nachgeschalteten Neurone weitergaben, wurden diese Kontakte verstärkt. Dies ging aber auf Kosten der Kontakte von anderen vorgeschalteten Zellen im Netzwerk. Die Zellen hörten vornehmlich auf die von außen eingegebenen Signale, dadurch wurden die anderen Kontakte überflüssig und entsprechend abgebaut. Wie die Wissenschaftler feststellten, koppelte sich die ganze Gruppe von Nervenzellen, die auf die Stimulation reagierten, nach einiger Zeit vom Netzwerk ab.

STDP alleine kann also Lernen in einem größeren neuronalen Netzwerk nicht erklären, es müssen weitere Bedingungen erfüllt sein, damit das System tatsächlich lernen kann. Es gibt schon einige Hinweise darauf, was für Bedingungen das sein könnten. Mit der Simulation von großen Netzwerken haben Morrison und ihre Kollegen ein gutes Werkzeug in der Hand, um die verschiedenen Modelle zu überprüfen und sich dem Geheimnis des neuronalen Lernens weiter zu nähern.

Ansprechpartner

  • Dr. Abigail Morrison

    • Diesmann Research Unit, Computational Neuroscience Group, RIKEN Brain Science Institute
    • 2-1 Hirosawa
    • Wako City, Saitama 351-0198, Japan
    • Telefonnummer: +81 48 467 9644
    • E-Mail-Adresse: abigail@brain.riken.jp
  • Prof. Dr. Ad Aertsen

    • Albert-Ludwigs-Universität Freiburg, Institut für Biologie III
    • Telefonnummer: 0761-203-2718
    • Faxnummer: 0761-203-2860
    • Homepage: http://www.bccn.uni-freiburg.de/