Hjerneens informationsbehandlingskapacitet siges ofte at ligge i de trillioner af forbindelser, der forbinder neuronerne med hinanden. Men i løbet af de sidste par årtier har stigende forskning stille og roligt flyttet noget af opmærksomheden til de enkelte neuroner, som tilsyneladende har et langt større beregningsmæssigt ansvar, end det engang syntes muligt.

Det seneste i en lang række beviser kommer fra forskernes opdagelse af en ny type elektrisk signal i de øverste lag af den menneskelige hjernebark. Laboratorie- og modelstudier har allerede vist, at små rum i de dendritiske arme af kortikale neuroner hver især kan udføre komplicerede operationer inden for matematisk logik. Men nu ser det ud til, at de enkelte dendritiske rum også kan udføre en bestemt beregning – “eksklusiv OR” – som matematikteoretikere tidligere havde kategoriseret som uløseligt for enkelt-neuronsystemer.

“Jeg tror, at vi kun kradser på overfladen af, hvad disse neuroner virkelig laver,” siger Albert Gidon, der er postdoc ved Humboldt-universitetet i Berlin og førsteforfatter til den artikel, der præsenterede disse resultater i Science tidligere på måneden.

Den nye opdagelse markerer et voksende behov for studier af nervesystemet for at overveje konsekvenserne af individuelle neuroner som omfattende informationsprocessorer. “Hjerner er måske langt mere komplicerede, end vi tror,” sagde Konrad Kording, en computerbaseret neurovidenskabsmand ved University of Pennsylvania, som ikke deltog i det nylige arbejde. Det kan også få nogle dataloger til at revurdere strategierne for kunstige neurale netværk, som traditionelt er blevet bygget på grundlag af en opfattelse af neuroner som simple, uintelligente kontakter.

Begrænsningerne ved dumme neuroner

I 1940’erne og 50’erne begyndte et billede at dominere neurovidenskaben: billedet af den “dumme” neuron, en simpel integrator, et punkt i et netværk, der blot opsummerede sine input. Forgrenede forlængelser af cellen, kaldet dendritter, ville modtage tusindvis af signaler fra naboneuroner – nogle excitatoriske, andre hæmmende. I neuronets krop ville alle disse signaler blive vægtet og talt sammen, og hvis summen oversteg en vis tærskel, affyrede neuronen en række elektriske impulser (aktionspotentialer), der styrede stimuleringen af tilstødende neuroner.

Omtrent samtidig indså forskerne, at en enkelt neuron også kunne fungere som en logisk gate, der minder om dem i digitale kredsløb (selv om det stadig ikke er klart, hvor meget hjernen reelt beregner på denne måde, når den behandler information). En neuron var f.eks. effektivt en AND-port, hvis den først blev aktiveret efter at have modtaget et tilstrækkeligt antal input.

Netværk af neuroner kunne derfor teoretisk set udføre enhver beregning. Alligevel var denne model af neuronet begrænset. Ikke alene var dens vejledende beregningsmetaforer forsimplede, men i årtier manglede forskerne også de eksperimentelle værktøjer til at registrere fra de forskellige komponenter i en enkelt nervecelle. “Det er i bund og grund neuronet, der bliver kollapseret til et punkt i rummet”, siger Bartlett Mel, en computerbaseret neurovidenskabsmand ved University of Southern California. “Den havde ikke nogen intern artikulation af aktivitet.” Modellen ignorerede det faktum, at de tusindvis af input, der strømmer ind i en given neuron, landede på forskellige steder langs dens forskellige dendritter. Den ignorerede den idé (som senere blev bekræftet), at de enkelte dendritter kunne fungere forskelligt fra hinanden. Og den ignorerede muligheden for, at beregninger kunne udføres af andre interne strukturer.

Men det begyndte at ændre sig i 1980’erne. Modelleringsarbejde udført af neurovidenskabsmanden Christof Koch og andre, som senere blev understøttet af bænkeksperimenter, viste, at enkelte neuroner ikke udtrykte et enkelt eller ensartet spændingssignal. I stedet faldt spændingssignalerne, efterhånden som de bevægede sig langs dendriterne ind i neuronens krop, og bidrog ofte ikke til cellens endelige output.

Denne opdeling af signalerne betød, at separate dendritter kunne behandle information uafhængigt af hinanden. “Dette var i modstrid med punktneuronhypotesen, hvor en neuron simpelthen lagde alt sammen uanset placering,” sagde Mel.

Det fik Koch og andre neurovidenskabsfolk, herunder Gordon Shepherd på Yale School of Medicine, til at modellere, hvordan dendriternes struktur i princippet kunne gøre det muligt for neuroner at fungere ikke som simple logiske porte, men som komplekse behandlingssystemer med flere enheder. De simulerede, hvordan dendritetræer kunne være vært for mange logiske operationer gennem en række komplekse hypotetiske mekanismer.

Senere undersøgte Mel og flere kolleger nærmere, hvordan cellen kunne håndtere flere input i sine individuelle dendritter. Det, de fandt, overraskede dem: Dendriterne genererede lokale spikes, havde deres egne ikke-lineære input-output-kurver og havde deres egne aktiveringstærskler, der var forskellige fra neuronens som helhed. Dendriterne kunne selv fungere som AND-gates eller som et væld af andre computerenheder.

Mel og hans tidligere kandidatstuderende Yiota Poirazi (nu computerneurovidenskabsmand ved Institut for Molekylærbiologi og Bioteknologi i Grækenland) indså, at dette betød, at de kunne opfatte en enkelt neuron som et netværk med to lag. Dendriterne ville fungere som ikke-lineære beregningsunderenheder, der indsamler input og udsender mellemliggende output. Disse signaler ville derefter blive kombineret i cellekroppen, som ville bestemme, hvordan neuronen som helhed ville reagere.

Om aktiviteten på dendritniveau rent faktisk påvirkede neuronens affyring og nabonuronernes aktivitet var stadig uklart. Men uanset hvad, kunne denne lokale behandling forberede eller konditionere systemet til at reagere anderledes på fremtidige input eller hjælpe det med at koble det på nye måder, ifølge Shepherd.

Hvad end tilfældet var, “var tendensen dengang: ‘OK, vær forsigtig, neuronen er måske mere kraftfuld, end du troede’,” sagde Mel.

Shepherd var enig. “En stor del af kraften i den behandling, der finder sted i cortex, er faktisk under tærskelværdien,” sagde han. “Et enkelt-neuronsystem kan være mere end blot et integrativt system. Det kan være to lag, eller endda flere.” I teorien kan næsten enhver tænkelig beregning udføres af én neuron med nok dendritter, der hver især er i stand til at udføre sin egen ikke-lineære operation.

I den nylige artikel i Science tog forskerne denne idé et skridt videre: De foreslog, at et enkelt dendritisk rum kunne være i stand til at udføre disse komplekse beregninger helt alene.

Uventede spikes og gamle forhindringer

Matthew Larkum, en neurovidenskabsmand på Humboldt, og hans hold begyndte at se på dendritter med et andet spørgsmål i tankerne. Da dendritaktivitet primært var blevet undersøgt i gnavere, ønskede forskerne at undersøge, hvordan elektrisk signalering kunne være anderledes i menneskelige neuroner, som har meget længere dendritter. De fik skiver af hjernevæv fra lag 2 og 3 af den menneskelige cortex, som indeholder særligt store neuroner med mange dendritter. Da de stimulerede disse dendritter med en elektrisk strøm, bemærkede de noget mærkeligt.

De så uventede, gentagne spikes – og disse spikes virkede helt ulig andre kendte former for neurale signaler. De var særligt hurtige og korte, ligesom aktionspotentialer, og de opstod på grund af strømme af calciumioner. Dette var bemærkelsesværdigt, fordi konventionelle aktionspotentialer normalt er forårsaget af natrium- og kaliumioner. Og mens calciuminduceret signalering tidligere var blevet observeret i dendritter hos gnavere, havde disse spikes en tendens til at vare meget længere.

Særre endnu var det, at hvis der blev givet mere elektrisk stimulation til dendriterne, sænkede det neuronets fyring i stedet for at øge den. “Pludselig stimulerer vi mere, og vi får mindre,” sagde Gidon. “Det fangede vores opmærksomhed.”

For at finde ud af, hvad den nye form for spiking kunne gøre, arbejdede forskerne sammen med Poirazi og en forsker i hendes laboratorium i Grækenland, Athanasia Papoutsi, som i fællesskab skabte en model, der afspejlede neuronernes adfærd.

Modellen viste, at dendriten spikede som reaktion på to separate input – men undlod at gøre det, når disse input blev kombineret. Dette svarede til en ikke-lineær beregning, der er kendt som eksklusiv OR (eller XOR), som giver et binært output på 1, hvis et (men kun et) af input er 1.

Dette resultat slog straks an i computervidenskabsverdenen. XOR-funktioner blev i mange år anset for umulige i enkelte neuroner: I deres bog “Perceptrons” fra 1969 fremlagde datalogerne Marvin Minsky og Seymour Papert et bevis for, at kunstige netværk med et enkelt lag ikke kunne udføre XOR-funktioner. Denne konklusion var så ødelæggende, at mange dataloger gav den skylden for det dødvande, som forskningen i neurale netværk faldt i indtil 1980’erne.

Neurale netværksforskere fandt til sidst måder at omgå den forhindring, som Minsky og Papert identificerede, og neurovidenskabsfolk fandt eksempler på disse løsninger i naturen. Poirazi vidste f.eks. allerede, at XOR var muligt i en enkelt neuron: Bare to dendritter sammen kunne opnå det. Men i disse nye eksperimenter tilbød hun og hendes kolleger en plausibel biofysisk mekanisme til at lette det – i en enkelt dendrit.

“For mig er det en anden grad af fleksibilitet, som systemet har,” sagde Poirazi. “Det viser bare, at dette system har mange forskellige måder at beregne på.” Alligevel påpeger hun, at hvis en enkelt neuron allerede kunne løse denne form for problem, “hvorfor skulle systemet så gøre sig den ulejlighed at finde på mere komplicerede enheder inde i neuronen?”

Processorer inden for processorer

Det er bestemt ikke alle neuroner, der er sådan. Ifølge Gidon findes der masser af mindre, punktformede neuroner i andre dele af hjernen. Der er formodentlig en grund til, at denne neurale kompleksitet findes. Så hvorfor skal enkelte rum i en neuron have kapacitet til at gøre det, som hele neuronen, eller et lille netværk af neuroner, fint kan gøre? Den indlysende mulighed er, at en neuron, der opfører sig som et netværk i flere lag, har meget mere processorkraft og derfor kan lære eller lagre mere. “Måske har man et dybt netværk i en enkelt neuron”, sagde Poirazi. “Og det er meget mere kraftfuldt med hensyn til at lære vanskelige problemer, med hensyn til kognition.”

Måske, tilføjede Kording, “kan en enkelt neuron måske være i stand til at beregne virkelig komplekse funktioner. For eksempel kan den måske i sig selv være i stand til at genkende et objekt.” At have så kraftige individuelle neuroner kan ifølge Poirazi også hjælpe hjernen med at spare på energien.

Larkums gruppe planlægger at søge efter lignende signaler i dendriterne hos gnavere og andre dyr for at afgøre, om denne beregningsevne er unik for mennesker. De ønsker også at bevæge sig ud over deres model for at associere den neurale aktivitet, de observerede, med den faktiske adfærd. I mellemtiden håber Poirazi nu at kunne sammenligne beregningerne i disse dendritter med det, der sker i et netværk af neuroner, for at finde frem til eventuelle fordele, som førstnævnte kan have. Dette vil omfatte testning af andre typer logiske operationer og undersøgelse af, hvordan disse operationer kan bidrage til indlæring eller hukommelse. “Indtil vi har kortlagt dette, kan vi ikke rigtig sige, hvor kraftfuld denne opdagelse er”, sagde Poirazi.

Og selv om der stadig er meget arbejde at gøre, mener forskerne, at disse resultater viser, at der er behov for at gentænke den måde, hvorpå de modellerer hjernen og dens bredere funktioner. Det vil ikke være nok at fokusere på forbindelsesmulighederne mellem forskellige neuroner og hjerneområder.

De nye resultater synes også at være klar til at påvirke spørgsmål inden for maskinlæring og kunstig intelligens. Kunstige neurale netværk er baseret på punktmodellen, der behandler neuroner som knudepunkter, der tæller input og sender summen gennem en aktivitetsfunktion. “Meget få mennesker har taget seriøst den tanke, at en enkelt neuron kan være en kompleks beregningsenhed”, sagde Gary Marcus, en kognitiv forsker ved New York University og en åbenlys skeptiker af nogle af de påstande, der er fremsat om dyb læring.

Og selv om Science-papiret kun er ét fund i en omfattende historie af arbejde, der viser denne idé, tilføjede han, kan dataloger være mere lydhøre over for det, fordi det indrammer spørgsmålet i forhold til XOR-problemet, der har forfulgt forskningen i neurale netværk i så lang tid. “Det siger, at vi virkelig er nødt til at tænke over dette,” sagde Marcus. “Hele spillet – at finde ud af, hvordan man får intelligent kognition ud af dumme neuroner – er måske forkert.”

“Dette er en super ren demonstration af det,” tilføjede han. “Det kommer til at tale over støjen.”