Hjärnans förmåga att bearbeta information sägs ofta ligga i de triljoner förbindelser som kopplar samman neuronerna. Men under de senaste decennierna har den ökande forskningen i tysthet flyttat en del av uppmärksamheten till enskilda neuroner, som tycks axla ett mycket större beräkningsansvar än vad som en gång verkade tänkbart.

Det senaste i en lång rad bevis kommer från forskarnas upptäckt av en ny typ av elektrisk signal i de övre skikten av den mänskliga hjärnbarken. Laboratorie- och modellstudier har redan visat att små fack i de dendritiska armarna hos kortikala neuroner var och en kan utföra komplicerade operationer inom matematisk logik. Men nu verkar det som om enskilda dendritiska avdelningar också kan utföra en särskild beräkning – ”exclusive OR” – som matematiska teoretiker tidigare hade kategoriserat som olöslig för system med enskilda neuroner.

”Jag tror att vi bara skrapar på ytan av vad de här neuronerna verkligen gör”, säger Albert Gidon, postdoktor vid Humboldtuniversitetet i Berlin och försteförfattare till den artikel som presenterade dessa fynd i Science tidigare den här månaden.

Upptäckten markerar ett växande behov av att i studier av nervsystemet ta hänsyn till konsekvenserna av att enskilda neuroner kan fungera som omfattande informationsprocessorer. ”Hjärnor kan vara mycket mer komplicerade än vi tror”, säger Konrad Kording, en beräkningsneurovetare vid University of Pennsylvania, som inte deltog i det senaste arbetet. Det kan också få vissa datavetare att omvärdera strategier för artificiella neurala nätverk, som traditionellt har byggts upp utifrån en syn på neuronerna som enkla, ointelligenta brytare.

The Limitations of Dumb Neurons

På 1940- och 50-talen började en bild att dominera inom neurovetenskapen: bilden av den ”dumma” neuronen, en enkel integratör, en punkt i ett nätverk som bara summerade sina inmatningar. Förgrenade förlängningar av cellen, så kallade dendriter, skulle ta emot tusentals signaler från närliggande neuroner – vissa excitatoriska, andra hämmande. I neuronens kropp skulle alla dessa signaler viktas och räknas samman, och om summan översteg ett visst tröskelvärde avfyrade neuronen en serie elektriska pulser (aktionspotentialer) som styrde stimuleringen av angränsande neuroner.

Ungefär samtidigt insåg forskarna att en enskild neuron också kunde fungera som en logisk grind, liknande de som finns i digitala kretsar (även om det fortfarande inte är klart hur mycket hjärnan verkligen räknar på det här sättet när den behandlar information). En neuron var i praktiken en AND-port, till exempel, om den avfyrade först efter att ha fått ett tillräckligt antal ingångar.

Nätverk av neuroner skulle därför teoretiskt sett kunna utföra vilken beräkning som helst. Ändå var denna modell av neuronen begränsad. Inte bara var dess vägledande beräkningsmetaforer förenklade, utan i årtionden saknade forskarna experimentella verktyg för att registrera från de olika komponenterna i en enskild nervcell. ”Det är i princip neuronet som har kollapsat till en punkt i rummet”, säger Bartlett Mel, en neurovetare med inriktning på beräkningsteknik vid University of Southern California. ”Den hade ingen inre artikulation av aktivitet.” Modellen ignorerade det faktum att de tusentals ingångar som flödar in i en viss neuron landade på olika platser längs dess olika dendriter. Den ignorerade idén (som så småningom bekräftades) att enskilda dendriter kan fungera olika från varandra. Och den ignorerade möjligheten att beräkningar kunde utföras av andra inre strukturer.

Men detta började förändras på 1980-talet. Modelleringsarbete av neurovetenskapsmannen Christof Koch och andra, som senare stöddes av bänkförsök, visade att enskilda neuroner inte uttryckte en enda eller enhetlig spänningssignal. I stället minskade spänningssignalerna när de rörde sig längs dendriterna in i neuronens kropp, och bidrog ofta inte alls till cellens slutliga produktion.

Denna uppdelning av signalerna innebar att separata dendriter kunde bearbeta information oberoende av varandra. ”Detta stred mot hypotesen om punktneuroner, där en neuron helt enkelt summerar allting oavsett var den befinner sig”, säger Mel.

Detta fick Koch och andra neurovetenskapsmän, däribland Gordon Shepherd vid Yale School of Medicine, att modellera hur dendriternas struktur i princip skulle kunna göra det möjligt för neuronerna att inte fungera som enkla logiska grindar utan som komplexa behandlingssystem med flera enheter. De simulerade hur dendritiska träd skulle kunna vara värd för många logiska operationer, genom en rad komplexa hypotetiska mekanismer.

Senare tittade Mel och flera kollegor närmare på hur cellen skulle kunna hantera flera ingångar i sina enskilda dendriter. Vad de fann förvånade dem: Dendriterna genererade lokala spikar, hade sina egna icke-linjära input-output-kurvor och hade sina egna aktiveringströsklar, skilda från neuronen som helhet. Dendriterna själva kunde fungera som AND-portar, eller som en mängd andra beräkningsenheter.

Mel, tillsammans med sin tidigare doktorand Yiota Poirazi (numera beräkningsneurovetare vid Institutet för molekylärbiologi och bioteknik i Grekland), insåg att detta innebar att de kunde föreställa sig en enskild neuron som ett nätverk i två lager. Dendriterna skulle fungera som icke-linjära beräkningsunderenheter som samlar in signaler och skickar ut mellanliggande signaler. Dessa signaler skulle sedan kombineras i cellkroppen, som skulle avgöra hur neuronen som helhet skulle reagera.

Om aktiviteten på dendritisk nivå faktiskt påverkade neuronens avfyrning och aktiviteten hos angränsande neuroner var fortfarande oklart. Men oavsett detta kan den lokala bearbetningen förbereda eller konditionera systemet för att reagera annorlunda på framtida ingångar eller hjälpa till att koppla in det på nya sätt, enligt Shepherd.

Hursomhelst var ”trenden då: ’Okej, var försiktig, neuronen kan vara kraftfullare än vad du trodde'”, sade Mel.

Shepherd instämde. ”En stor del av kraften i den bearbetning som sker i hjärnbarken är faktiskt under tröskelvärdet”, sade han. ”Ett system med en enda neuron kan vara mer än bara ett integrativt system. Det kan vara två lager, eller till och med fler.” I teorin kan nästan alla tänkbara beräkningar utföras av en neuron med tillräckligt många dendriter, som var och en kan utföra sin egen icke-linjära operation.

I den nyligen publicerade Science-artikeln tog forskarna denna idé ett steg längre: De föreslog att en enda dendritisk avdelning skulle kunna utföra dessa komplexa beräkningar helt på egen hand.

Oförväntade spikar och gamla hinder

Matthew Larkum, neurovetare vid Humboldt, och hans team började titta på dendriterna med en annan fråga i åtanke. Eftersom dendritisk aktivitet främst hade studerats på gnagare ville forskarna undersöka hur elektrisk signalering kan skilja sig åt i mänskliga neuroner, som har mycket längre dendriter. De fick skivor av hjärnvävnad från lager 2 och 3 i den mänskliga hjärnbarken, som innehåller särskilt stora neuroner med många dendriter. När de stimulerade dessa dendriter med elektrisk ström märkte de något märkligt.

De såg oväntade, upprepade spikar – och dessa spikar verkade helt olikt andra kända typer av neurala signaler. De var särskilt snabba och korta, som aktionspotentialer, och uppstod från flöden av kalciumjoner. Detta var anmärkningsvärt eftersom konventionella aktionspotentialer vanligtvis orsakas av natrium- och kaliumjoner. Och även om kalciuminducerad signalering tidigare hade observerats i gnagares dendriter, tenderade dessa spikar att vara mycket längre.

Strängre än så, när mer elektrisk stimulering matades in i dendriterna, sänktes intensiteten i neuronens avfyrning i stället för att öka den. ”Plötsligt stimulerar vi mer och får mindre”, sade Gidon. ”Det fångade vår uppmärksamhet.”

För att ta reda på vad den nya typen av spikning kunde göra samarbetade forskarna med Poirazi och en forskare i hennes labb i Grekland, Athanasia Papoutsi, som tillsammans skapade en modell för att återspegla neuronernas beteende.

Modellen visade att dendriten spikade som svar på två separata inmatningar – men misslyckades med att göra det när dessa inmatningar kombinerades. Detta motsvarade en icke-linjär beräkning som kallas exklusiv OR (eller XOR), som ger en binär utgång på 1 om en (men bara en) av ingångarna är 1.

Denna upptäckt slog genast an ett ackord i datavetenskapssamfundet. XOR-funktioner ansågs under många år vara omöjliga i enskilda neuroner: I sin bok Perceptrons från 1969 gav datavetarna Marvin Minsky och Seymour Papert ett bevis för att artificiella nätverk med ett enda lager inte kunde utföra XOR-funktioner. Denna slutsats var så förödande att många datavetare gav den skulden för det doldrum som forskningen om neurala nätverk hamnade i fram till 1980-talet.

Neurala nätverksforskare hittade så småningom sätt att kringgå det hinder som Minsky och Papert identifierade, och neurovetare hittade exempel på dessa lösningar i naturen. Poirazi visste till exempel redan att XOR var möjligt i en enda neuron: Bara två dendriter tillsammans kunde åstadkomma det. Men i dessa nya experiment erbjöd hon och hennes kollegor en rimlig biofysisk mekanism för att underlätta det – i en enda dendrit.

”För mig är det ytterligare en grad av flexibilitet som systemet har”, säger Poirazi. ”Det visar bara att det här systemet har många olika sätt att beräkna.” Ändå påpekar hon att om en enda neuron redan kunde lösa den här typen av problem, ”varför skulle systemet göra sig besväret att hitta på mer komplicerade enheter inuti neuronen?”

Processorer inom processorer

Säkerligen är inte alla neuroner så här. Enligt Gidon finns det gott om mindre, punktliknande neuroner i andra delar av hjärnan. Förmodligen finns denna neurala komplexitet alltså av en anledning. Så varför behöver enskilda avdelningar inom en neuron kapacitet att göra det som hela neuronen, eller ett litet nätverk av neuroner, klarar utmärkt? Den uppenbara möjligheten är att en neuron som beter sig som ett flerskiktat nätverk har mycket mer processorkraft och därför kan lära sig eller lagra mer. ”Kanske har du ett djupt nätverk inom en enda neuron”, säger Poirazi. ”Och det är mycket kraftfullare när det gäller att lära sig svåra problem, när det gäller kognition.”

Kording tillade att en enda neuron kanske kan beräkna verkligt komplexa funktioner. Den kan till exempel på egen hand känna igen ett objekt”. Att ha så kraftfulla enskilda neuroner, enligt Poirazi, kan också hjälpa hjärnan att spara energi.

Larkums grupp planerar att söka efter liknande signaler i dendriterna hos gnagare och andra djur, för att avgöra om denna beräkningsförmåga är unik för människan. De vill också gå utanför räckvidden för sin modell för att associera den neurala aktivitet som de observerade med verkligt beteende. Under tiden hoppas Poirazi nu kunna jämföra beräkningarna i dessa dendriter med vad som händer i ett nätverk av neuroner, för att ta reda på vilka fördelar de förstnämnda kan ha. Detta kommer att innefatta testning av andra typer av logiska operationer och utforskning av hur dessa operationer kan bidra till inlärning eller minne. ”Innan vi har kartlagt detta kan vi inte riktigt säga hur kraftfull denna upptäckt är”, säger Poirazi.

Tyvärr återstår fortfarande mycket arbete, men forskarna anser att dessa upptäckter visar att det finns ett behov av att ompröva hur man modellerar hjärnan och dess bredare funktioner. Det räcker inte med att fokusera på kopplingen mellan olika neuroner och hjärnregioner.

De nya resultaten verkar också vara redo att påverka frågor inom områdena maskininlärning och artificiell intelligens. Artificiella neurala nätverk bygger på punktmodellen, där neuronerna behandlas som noder som räknar inmatningar och skickar summan genom en aktivitetsfunktion. ”Väldigt få människor har tagit tanken på allvar att en enskild neuron skulle kunna vara en komplex beräkningsenhet”, säger Gary Marcus, en kognitionsforskare vid New York University och en uttalad skeptiker till vissa påståenden om djupinlärning.

Och även om Science-artikeln bara är en upptäckt i en omfattande historia av arbeten som visar på den här idén, tillade han, så kan datavetare kanske vara mer lyhörda för den eftersom den ramar in frågan i termer av XOR-problemet som så länge har förföljt forskningen om neurala nätverk. ”Den säger att vi verkligen måste tänka på detta”, sade Marcus. ”Hela spelet – att komma på hur man får smart kognition ur dumma neuroner – kan vara fel.”

”Det här är en superren demonstration av det”, tillade han. ”Det kommer att tala över bruset.”