Die informationsverarbeitenden Fähigkeiten des Gehirns werden oft in den Billionen von Verbindungen vermutet, die die Neuronen miteinander verbinden. Doch in den letzten Jahrzehnten hat die zunehmende Forschung die Aufmerksamkeit auf einzelne Neuronen gelenkt, die viel mehr Rechenleistung zu erbringen scheinen, als man sich früher vorstellen konnte.

Der jüngste Beweis in einer langen Reihe von Belegen ist die Entdeckung einer neuen Art von elektrischen Signalen in den oberen Schichten des menschlichen Kortex. Labor- und Modellstudien haben bereits gezeigt, dass winzige Kompartimente in den dendritischen Armen kortikaler Neuronen jeweils komplizierte mathematisch-logische Operationen durchführen können. Doch nun scheint es, dass einzelne dendritische Kompartimente auch eine bestimmte Berechnung – „exklusives ODER“ – durchführen können, die mathematische Theoretiker zuvor als unlösbar für Einzelneuronensysteme eingestuft hatten.

„Ich glaube, dass wir nur an der Oberfläche dessen kratzen, was diese Neuronen wirklich tun“, sagte Albert Gidon, Postdoktorand an der Humboldt-Universität zu Berlin und Erstautor der Arbeit, die diese Ergebnisse Anfang dieses Monats in Science vorstellte.

Die Entdeckung zeigt, dass die Erforschung des Nervensystems zunehmend die Bedeutung einzelner Neuronen als umfangreiche Informationsverarbeiter berücksichtigen muss. „Gehirne sind vielleicht viel komplizierter, als wir denken“, sagte Konrad Kording, ein Computational Neuroscientist an der University of Pennsylvania, der nicht an der jüngsten Arbeit beteiligt war. Sie könnte auch einige Informatiker dazu veranlassen, Strategien für künstliche neuronale Netze zu überdenken, die traditionell auf der Grundlage einer Betrachtung der Neuronen als einfache, unintelligente Schalter aufgebaut wurden.

Die Grenzen der stummen Neuronen

In den 1940er und 50er Jahren begann ein Bild die Neurowissenschaften zu beherrschen: das des „stummen“ Neurons, eines einfachen Integrators, eines Punktes in einem Netz, der lediglich seine Eingaben summiert. Verzweigte Ausläufer der Zelle, die so genannten Dendriten, empfingen Tausende von Signalen von benachbarten Neuronen – einige erregend, andere hemmend. Im Körper des Neurons wurden all diese Signale gewichtet und zusammengezählt, und wenn die Gesamtsumme einen bestimmten Schwellenwert überschritt, feuerte das Neuron eine Reihe elektrischer Impulse (Aktionspotenziale) ab, die die Stimulation benachbarter Neuronen steuerten.

Etwa zur gleichen Zeit erkannten die Forscher, dass ein einzelnes Neuron auch als logisches Gatter fungieren konnte, ähnlich wie in digitalen Schaltkreisen (obwohl noch immer nicht klar ist, wie viel das Gehirn bei der Verarbeitung von Informationen wirklich auf diese Weise berechnet). Ein Neuron war zum Beispiel ein UND-Gatter, wenn es erst nach Erhalt einer ausreichenden Anzahl von Eingaben feuerte.

Netzwerke von Neuronen könnten daher theoretisch jede Berechnung durchführen. Dennoch war dieses Modell des Neurons begrenzt. Nicht nur, dass die zugrundeliegenden Berechnungsmetaphern zu simpel waren, jahrzehntelang fehlten den Wissenschaftlern auch die experimentellen Werkzeuge, um die verschiedenen Komponenten einer einzelnen Nervenzelle aufzuzeichnen. „Das Neuron wurde im Wesentlichen auf einen Punkt im Raum reduziert“, so Bartlett Mel, Computational Neuroscientist an der University of Southern California. „Es hatte keine interne Gliederung der Aktivität.“ Das Modell ignorierte die Tatsache, dass die Tausenden von Eingaben, die in ein bestimmtes Neuron einfließen, an verschiedenen Stellen entlang seiner verschiedenen Dendriten landeten. Es ignorierte die (schließlich bestätigte) Vorstellung, dass einzelne Dendriten unterschiedlich funktionieren könnten. Und man ignorierte die Möglichkeit, dass Berechnungen von anderen internen Strukturen durchgeführt werden könnten.

Das begann sich jedoch in den 1980er Jahren zu ändern. Modellierungsarbeiten des Neurowissenschaftlers Christof Koch und anderer, die später durch Laborexperimente gestützt wurden, zeigten, dass einzelne Neuronen kein einziges oder einheitliches Spannungssignal aussenden. Stattdessen nahmen die Spannungssignale ab, je weiter sie sich entlang der Dendriten in den Körper des Neurons bewegten, und trugen oft nichts zur endgültigen Leistung der Zelle bei.

Diese Aufteilung der Signale bedeutete, dass einzelne Dendriten unabhängig voneinander Informationen verarbeiten konnten. „Dies stand im Widerspruch zur Hypothese der Punktneuronen, bei der ein Neuron einfach alles zusammenzählt, unabhängig vom Ort“, so Mel.

Das veranlasste Koch und andere Neurowissenschaftler, darunter Gordon Shepherd von der Yale School of Medicine, zu modellieren, wie die Struktur der Dendriten es Neuronen prinzipiell ermöglichen könnte, nicht als einfache logische Gatter, sondern als komplexe Verarbeitungssysteme mit mehreren Einheiten zu agieren. Sie simulierten, wie dendritische Bäume durch eine Reihe komplexer hypothetischer Mechanismen zahlreiche logische Operationen beherbergen könnten.

Später untersuchten Mel und mehrere Kollegen genauer, wie die Zelle mehrere Eingänge innerhalb ihrer einzelnen Dendriten verwalten könnte. Was sie fanden, überraschte sie: Die Dendriten erzeugten lokale Spikes, hatten ihre eigenen nichtlinearen Input-Output-Kurven und hatten ihre eigenen Aktivierungsschwellen, die sich von denen des Neurons als Ganzes unterschieden. Die Dendriten selbst konnten als UND-Gatter oder als eine Vielzahl anderer Rechenvorrichtungen fungieren.

Mel und seine ehemalige Doktorandin Yiota Poirazi (heute Computational Neuroscientist am Institut für Molekularbiologie und Biotechnologie in Griechenland) erkannten, dass dies bedeutete, dass sie sich ein einzelnes Neuron als ein zweischichtiges Netzwerk vorstellen konnten. Die Dendriten würden als nichtlineare Recheneinheiten dienen, die Eingaben sammeln und Zwischenergebnisse ausspucken. Diese Signale werden dann im Zellkörper kombiniert, der bestimmt, wie das Neuron als Ganzes reagiert.

Ob die Aktivität auf der dendritischen Ebene tatsächlich das Feuern des Neurons und die Aktivität der benachbarten Neuronen beeinflusst, war noch unklar. Aber unabhängig davon könnte diese lokale Verarbeitung das System darauf vorbereiten oder konditionieren, auf künftige Eingaben anders zu reagieren oder es auf neue Weise zu verdrahten, so Shepherd.

Was auch immer der Fall sein mag, „der Trend war damals: ‚OK, sei vorsichtig, das Neuron könnte mächtiger sein, als du dachtest'“, sagte Mel.

Shepherd stimmte zu. „Ein Großteil der Verarbeitungsleistung, die im Kortex stattfindet, ist tatsächlich unterschwellig“, sagte er. „Ein Ein-Neuronen-System kann mehr sein als nur ein integratives System. Es kann aus zwei oder sogar mehr Schichten bestehen.“ Theoretisch könnte fast jede denkbare Berechnung von einem einzigen Neuron mit genügend Dendriten durchgeführt werden, von denen jedes seine eigene nichtlineare Operation ausführen kann.

In der jüngsten Veröffentlichung in Science gingen die Forscher noch einen Schritt weiter: Sie schlugen vor, dass ein einzelnes dendritisches Kompartiment in der Lage sein könnte, diese komplexen Berechnungen ganz allein durchzuführen.

Unerwartete Spikes und alte Hindernisse

Matthew Larkum, ein Neurowissenschaftler an der Humboldt-Universität, und sein Team begannen, Dendriten mit einer anderen Fragestellung zu untersuchen. Da die dendritische Aktivität vor allem an Nagetieren untersucht worden war, wollten die Forscher untersuchen, wie sich die elektrische Signalübertragung in menschlichen Neuronen, die viel längere Dendriten haben, unterscheiden könnte. Sie entnahmen Hirngewebeschnitte aus den Schichten 2 und 3 des menschlichen Kortex, die besonders große Neuronen mit vielen Dendriten enthalten. Als sie diese Dendriten mit elektrischem Strom stimulierten, bemerkten sie etwas Seltsames.

Sie sahen unerwartete, wiederholte Spikes – und diese Spikes schienen völlig anders zu sein als andere bekannte Arten von neuronalen Signalen. Sie waren besonders schnell und kurz, wie Aktionspotentiale, und entstanden durch Flüsse von Kalziumionen. Dies war bemerkenswert, da herkömmliche Aktionspotenziale normalerweise durch Natrium- und Kaliumionen verursacht werden. Und während kalziuminduzierte Signale bereits zuvor in Dendriten von Nagetieren beobachtet worden waren, dauerten diese Spikes tendenziell viel länger.

Erstaunlicher noch ist, dass die Einspeisung von mehr elektrischer Stimulation in die Dendriten die Intensität des Feuerns des Neurons senkte, anstatt sie zu erhöhen. „Plötzlich stimulieren wir mehr und bekommen weniger“, sagte Gidon. „

Um herauszufinden, was die neue Art von Spiking bewirken könnte, schlossen sich die Wissenschaftler mit Poirazi und einer Forscherin in ihrem Labor in Griechenland, Athanasia Papoutsi, zusammen, die gemeinsam ein Modell erstellten, das das Verhalten der Neuronen widerspiegelte.

Das Modell ergab, dass der Dendrit als Reaktion auf zwei getrennte Eingänge Spikes auslöste – dies aber nicht tat, wenn diese Eingänge kombiniert wurden. Dies entsprach einer nichtlinearen Berechnung, die als exklusives ODER (oder XOR) bekannt ist und eine binäre Ausgabe von 1 ergibt, wenn eine (aber nur eine) der Eingaben 1 ist.

Dieser Befund erregte sofort die Aufmerksamkeit der Computerwissenschaftler. XOR-Funktionen galten viele Jahre lang als unmöglich in einzelnen Neuronen: In ihrem 1969 erschienenen Buch „Perceptrons“ haben die Informatiker Marvin Minsky und Seymour Papert bewiesen, dass einschichtige künstliche Netze keine XOR-Funktion ausführen können. Diese Schlussfolgerung war so niederschmetternd, dass viele Informatiker sie für die Flaute verantwortlich machten, in die die Forschung an neuronalen Netzen bis in die 1980er Jahre geriet.

Neuronale Netzforscher fanden schließlich Wege, das von Minsky und Papert identifizierte Hindernis zu umgehen, und Neurowissenschaftler fanden Beispiele für diese Lösungen in der Natur. So wusste Poirazi bereits, dass die XOR-Verknüpfung in einem einzelnen Neuron möglich ist: Nur zwei Dendriten zusammen können dies erreichen. Aber in diesen neuen Experimenten boten sie und ihre Kollegen einen plausiblen biophysikalischen Mechanismus, um dies zu ermöglichen – in einem einzigen Dendriten.

„Für mich ist das ein weiterer Grad an Flexibilität, den das System hat“, sagte Poirazi. „Es zeigt, dass dieses System viele verschiedene Möglichkeiten der Datenverarbeitung hat.“ Dennoch weist sie darauf hin, dass, wenn ein einzelnes Neuron diese Art von Problem bereits lösen konnte, „warum sollte sich das System die Mühe machen, kompliziertere Einheiten innerhalb des Neurons zu entwickeln?“

Prozessoren innerhalb von Prozessoren

Sicherlich sind nicht alle Neuronen so. Laut Gidon gibt es eine Menge kleinerer, punktförmiger Neuronen in anderen Teilen des Gehirns. Vermutlich gibt es diese neuronale Komplexität also aus einem bestimmten Grund. Warum brauchen also einzelne Abteilungen innerhalb eines Neurons die Fähigkeit, das zu tun, was das gesamte Neuron oder ein kleines Netzwerk von Neuronen problemlos tun kann? Die nahe liegende Möglichkeit ist, dass ein Neuron, das sich wie ein mehrschichtiges Netzwerk verhält, viel mehr Verarbeitungsleistung hat und daher mehr lernen oder speichern kann. „Vielleicht hat man ein tiefes Netzwerk innerhalb eines einzelnen Neurons“, sagte Poirazi. „Und das ist viel leistungsfähiger, wenn es darum geht, schwierige Probleme zu lernen, wenn es um Kognition geht.“

Vielleicht, so fügte Kording hinzu, „kann ein einzelnes Neuron in der Lage sein, wirklich komplexe Funktionen zu berechnen. Zum Beispiel könnte es allein in der Lage sein, ein Objekt zu erkennen.“ Poirazi zufolge könnte ein solches leistungsfähiges einzelnes Neuron dem Gehirn auch helfen, Energie zu sparen.

Larkums Gruppe plant, in den Dendriten von Nagetieren und anderen Tieren nach ähnlichen Signalen zu suchen, um festzustellen, ob diese Rechenfähigkeit nur beim Menschen vorhanden ist. Außerdem wollen sie über den Rahmen ihres Modells hinausgehen und die beobachtete neuronale Aktivität mit dem tatsächlichen Verhalten in Verbindung bringen. In der Zwischenzeit hofft Poirazi, die Berechnungen in diesen Dendriten mit denen in einem Netzwerk von Neuronen vergleichen zu können, um herauszufinden, welche Vorteile die ersteren haben könnten. Dabei sollen auch andere Arten von logischen Operationen getestet und untersucht werden, wie diese Operationen zum Lernen oder Gedächtnis beitragen könnten. „Solange wir das nicht kartiert haben, können wir nicht wirklich sagen, wie mächtig diese Entdeckung ist“, sagte Poirazi.

Auch wenn noch viel Arbeit vor uns liegt, sind die Forscher der Meinung, dass diese Ergebnisse ein Zeichen dafür sind, dass die Art und Weise, wie sie das Gehirn und seine breiteren Funktionen modellieren, überdacht werden muss. Es reicht nicht aus, sich auf die Konnektivität verschiedener Neuronen und Gehirnregionen zu konzentrieren.

Die neuen Ergebnisse scheinen auch Fragen im Bereich des maschinellen Lernens und der künstlichen Intelligenz zu beeinflussen. Künstliche neuronale Netze beruhen auf dem Punktmodell, bei dem Neuronen als Knoten behandelt werden, die Eingaben addieren und die Summe durch eine Aktivitätsfunktion weiterleiten. „Nur sehr wenige Menschen haben die Vorstellung ernst genommen, dass ein einzelnes Neuron ein komplexes Rechengerät sein könnte“, sagte Gary Marcus, ein Kognitionswissenschaftler an der New York University und ein ausgesprochener Skeptiker einiger Behauptungen, die für das Deep Learning aufgestellt wurden.

Obwohl die Science-Veröffentlichung nur ein Ergebnis in einer umfangreichen Geschichte von Arbeiten ist, die diese Idee demonstrieren, fügte er hinzu, könnten Informatiker eher darauf reagieren, weil sie das Problem in Bezug auf das XOR-Problem einrahmen, das die Forschung zu neuronalen Netzen so lange behindert hat. „Es bedeutet, dass wir wirklich darüber nachdenken müssen“, sagte Marcus. „Das ganze Spiel – wie man intelligente Kognition aus dummen Neuronen herausbekommt – könnte falsch sein.“

„Das ist eine super saubere Demonstration dessen“, fügte er hinzu. „Es wird über den Lärm sprechen.“