Le capacità di elaborazione delle informazioni del cervello sono spesso riportate come risiedenti nei trilioni di connessioni che collegano i suoi neuroni. Ma negli ultimi decenni, la ricerca ha silenziosamente spostato l’attenzione sui singoli neuroni, che sembrano assumersi molte più responsabilità di calcolo di quanto si potesse immaginare una volta.

L’ultima di una lunga serie di prove viene dalla scoperta da parte degli scienziati di un nuovo tipo di segnale elettrico negli strati superiori della corteccia umana. Studi di laboratorio e di modellazione hanno già dimostrato che minuscoli compartimenti nei bracci dendritici dei neuroni corticali possono eseguire ciascuno complicate operazioni di logica matematica. Ma ora sembra che i singoli compartimenti dendritici possano anche eseguire una particolare computazione – “OR esclusivo” – che i teorici matematici avevano precedentemente classificato come irrisolvibile dai sistemi a singolo neurone.

“Credo che stiamo solo grattando la superficie di ciò che questi neuroni stanno realmente facendo”, ha detto Albert Gidon, un borsista post-dottorato presso l’Università Humboldt di Berlino e il primo autore del documento che ha presentato questi risultati in Science all’inizio di questo mese.

La scoperta segna una crescente necessità per gli studi del sistema nervoso di considerare le implicazioni dei singoli neuroni come processori di informazioni estese. “I cervelli possono essere molto più complicati di quanto pensiamo”, ha detto Konrad Kording, un neuroscienziato computazionale presso l’Università della Pennsylvania, che non ha partecipato al recente lavoro. Potrebbe anche spingere alcuni scienziati informatici a rivalutare le strategie per le reti neurali artificiali, che sono state tradizionalmente costruite sulla base di una visione dei neuroni come semplici interruttori non intelligenti.

I limiti dei neuroni muti

Negli anni ’40 e ’50, un’immagine ha cominciato a dominare le neuroscienze: quella del neurone “muto”, un semplice integratore, un punto in una rete che semplicemente somma i suoi ingressi. Estensioni ramificate della cellula, chiamate dendriti, ricevevano migliaia di segnali dai neuroni vicini – alcuni eccitatori, altri inibitori. Nel corpo del neurone, tutti questi segnali sarebbero stati ponderati e conteggiati, e se il totale superava una certa soglia, il neurone sparava una serie di impulsi elettrici (potenziali d’azione) che indirizzavano la stimolazione dei neuroni adiacenti.

All’incirca nello stesso periodo, i ricercatori si resero conto che un singolo neurone poteva anche funzionare come una porta logica, simile a quelle dei circuiti digitali (anche se non è ancora chiaro quanto il cervello calcoli realmente in questo modo quando elabora le informazioni). Un neurone era effettivamente un cancello AND, per esempio, se si attivava solo dopo aver ricevuto un numero sufficiente di ingressi.

Le reti di neuroni potrebbero quindi teoricamente eseguire qualsiasi calcolo. Tuttavia, questo modello del neurone era limitato. Non solo le sue metafore computazionali guida erano semplicistiche, ma per decenni, gli scienziati non avevano gli strumenti sperimentali per registrare dai vari componenti di una singola cellula nervosa. “Questo è essenzialmente il neurone collassato in un punto nello spazio”, ha detto Bartlett Mel, un neuroscienziato computazionale alla University of Southern California. “Non aveva alcuna articolazione interna dell’attività”. Il modello ignorava il fatto che le migliaia di input che fluiscono in un dato neurone atterravano in luoghi diversi lungo i suoi vari dendriti. Ignorava l’idea (alla fine confermata) che i singoli dendriti potessero funzionare in modo diverso l’uno dall’altro. E ignorava la possibilità che i calcoli potessero essere eseguiti da altre strutture interne.

Ma le cose iniziarono a cambiare negli anni ’80. Il lavoro di modellazione del neuroscienziato Christof Koch e altri, poi supportato da esperimenti sul banco, ha mostrato che i singoli neuroni non esprimevano un segnale di tensione unico o uniforme. Invece, i segnali di tensione diminuivano man mano che si spostavano lungo i dendriti nel corpo del neurone, e spesso non contribuivano affatto all’output finale della cellula.

Questa compartimentazione dei segnali significava che dendriti separati potevano elaborare informazioni indipendentemente l’uno dall’altro. “Questo era in contrasto con l’ipotesi del neurone puntiforme, in cui un neurone semplicemente sommava tutto indipendentemente dalla posizione”, ha detto Mel.

Questo ha spinto Koch e altri neuroscienziati, tra cui Gordon Shepherd alla Yale School of Medicine, a modellare come la struttura dei dendriti potrebbe in linea di principio consentire ai neuroni di agire non come semplici porte logiche, ma come complessi sistemi di elaborazione multi unità. Hanno simulato come gli alberi dendritici potrebbero ospitare numerose operazioni logiche, attraverso una serie di complessi meccanismi ipotetici.

In seguito, Mel e diversi colleghi hanno esaminato più da vicino come la cellula potrebbe gestire più ingressi all’interno dei suoi singoli dendriti. Ciò che hanno trovato li ha sorpresi: I dendriti generavano picchi locali, avevano le loro curve di input-output non lineari e avevano le loro soglie di attivazione, distinte da quelle del neurone nel suo complesso. I dendriti stessi potevano agire come porte AND, o come una serie di altri dispositivi di calcolo.

Mel, insieme al suo ex studente laureato Yiota Poirazi (ora neuroscienziato computazionale presso l’Istituto di Biologia Molecolare e Biotecnologia in Grecia), ha capito che questo significava che potevano concepire un singolo neurone come una rete a due strati. I dendriti servirebbero come subunità di calcolo non lineare, raccogliendo input e sputando fuori output intermedi. Questi segnali verrebbero poi combinati nel corpo cellulare, che determinerebbe come il neurone nel suo complesso risponderebbe.

Se l’attività a livello dendritico abbia effettivamente influenzato lo sparo del neurone e l’attività dei neuroni vicini non era ancora chiaro. Ma a prescindere, quell’elaborazione locale potrebbe preparare o condizionare il sistema a rispondere in modo diverso agli input futuri o aiutarlo a cablare in nuovi modi, secondo Shepherd.

Qualunque sia il caso, “la tendenza allora era, ‘OK, fate attenzione, il neurone potrebbe essere più potente di quanto si pensi'”, ha detto Mel.

Shepherd ha concordato. “Gran parte della potenza dell’elaborazione che avviene nella corteccia è in realtà sottosoglia”, ha detto. “Un sistema a singolo neurone può essere più di un sistema integrativo. Può essere due strati, o anche di più”. In teoria, quasi ogni calcolo immaginabile potrebbe essere eseguito da un neurone con un numero sufficiente di dendriti, ciascuno in grado di eseguire la propria operazione non lineare.

Nel recente articolo su Science, i ricercatori hanno fatto un ulteriore passo avanti: Hanno suggerito che un singolo compartimento dendritico potrebbe essere in grado di eseguire questi complessi calcoli da solo.

Picchi inaspettati e vecchi ostacoli

Matthew Larkum, un neuroscienziato della Humboldt, e il suo team hanno iniziato a guardare i dendriti con una domanda diversa in mente. Poiché l’attività dendritica era stata studiata principalmente nei roditori, i ricercatori volevano indagare come la segnalazione elettrica potrebbe essere diversa nei neuroni umani, che hanno dendriti molto più lunghi. Hanno ottenuto fette di tessuto cerebrale dagli strati 2 e 3 della corteccia umana, che contengono neuroni particolarmente grandi con molti dendriti. Quando hanno stimolato quei dendriti con una corrente elettrica, hanno notato qualcosa di strano.

Hanno visto spike inaspettati e ripetuti – e questi spike sembravano completamente diversi da altri tipi conosciuti di segnalazione neurale. Erano particolarmente rapidi e brevi, come potenziali d’azione, e nascevano da flussi di ioni calcio. Questo era degno di nota perché i potenziali d’azione convenzionali sono solitamente causati da ioni sodio e potassio. E mentre la segnalazione indotta dal calcio era stata precedentemente osservata nei dendriti dei roditori, questi picchi tendevano a durare molto più a lungo.

Ancora più strano, alimentare più stimolazione elettrica nei dendriti abbassava l’intensità dello sparo del neurone invece di aumentarla. “Improvvisamente, stimoliamo di più e otteniamo meno”, ha detto Gidon. “

Per capire cosa potrebbe fare il nuovo tipo di spike, gli scienziati hanno collaborato con Poirazi e una ricercatrice del suo laboratorio in Grecia, Athanasia Papoutsi, che hanno creato insieme un modello per riflettere il comportamento dei neuroni.

Il modello ha trovato che il dendrite spike in risposta a due input separati – ma non è riuscito a farlo quando quegli input sono stati combinati. Questo era equivalente a un calcolo non lineare noto come OR esclusivo (o XOR), che produce un output binario di 1 se uno (ma solo uno) degli ingressi è 1.

Questa scoperta ha immediatamente colpito la comunità informatica. Le funzioni XOR sono state per molti anni considerate impossibili nei singoli neuroni: Nel loro libro Perceptrons del 1969, gli scienziati informatici Marvin Minsky e Seymour Papert offrirono una prova che le reti artificiali a singolo strato non potevano eseguire XOR. Quella conclusione fu così devastante che molti scienziati informatici la incolparono per la stagnazione in cui cadde la ricerca sulle reti neurali fino agli anni ’80.

I ricercatori delle reti neurali alla fine trovarono il modo di evitare l’ostacolo che Minsky e Papert avevano identificato, e i neuroscienziati trovarono esempi di queste soluzioni in natura. Per esempio, Poirazi sapeva già che lo XOR era possibile in un singolo neurone: solo due dendriti insieme potevano realizzarlo. Ma in questi nuovi esperimenti, lei e i suoi colleghi stavano offrendo un meccanismo biofisico plausibile per facilitarlo – in un singolo dendrite.

“Per me, è un altro grado di flessibilità che il sistema ha”, ha detto Poirazi. “Mostra solo che questo sistema ha molti modi diversi di computare”. Tuttavia, fa notare che se un singolo neurone può già risolvere questo tipo di problema, “perché il sistema dovrebbe prendersi la briga di creare unità più complicate all’interno del neurone?”

Processori all’interno dei processori

Certamente non tutti i neuroni sono così. Secondo Gidon, ci sono molti neuroni più piccoli e puntiformi in altre parti del cervello. Presumibilmente, quindi, questa complessità neurale esiste per una ragione. Allora perché i singoli compartimenti all’interno di un neurone hanno bisogno della capacità di fare ciò che l’intero neurone, o una piccola rete di neuroni, può fare benissimo? La possibilità ovvia è che un neurone che si comporta come una rete multistrato ha molta più potenza di elaborazione e può quindi imparare o immagazzinare di più. “Forse hai una rete profonda all’interno di un singolo neurone”, ha detto Poirazi. “E questo è molto più potente in termini di apprendimento di problemi difficili, in termini di cognizione.”

Forse, ha aggiunto Kording, “un singolo neurone potrebbe essere in grado di calcolare funzioni veramente complesse. Per esempio, potrebbe, da solo, essere in grado di riconoscere un oggetto”. Avere neuroni individuali così potenti, secondo Poirazi, potrebbe anche aiutare il cervello a conservare energia.

Il gruppo di Larkum prevede di cercare segnali simili nei dendriti dei roditori e di altri animali, per determinare se questa capacità di calcolo è unica per gli esseri umani. Vogliono anche andare oltre l’ambito del loro modello per associare l’attività neurale che hanno osservato al comportamento reale. Nel frattempo, Poirazi spera ora di confrontare le computazioni in questi dendriti con ciò che accade in una rete di neuroni, per scoprire eventuali vantaggi che il primo potrebbe avere. Questo includerà test per altri tipi di operazioni logiche ed esplorerà come queste operazioni potrebbero contribuire all’apprendimento o alla memoria. “Fino a quando non avremo mappato questo, non possiamo davvero dire quanto sia potente questa scoperta”, ha detto Poirazi.

Anche se c’è ancora molto lavoro da fare, i ricercatori credono che questi risultati segnino la necessità di ripensare il modo di modellare il cervello e le sue funzioni più ampie. Concentrarsi sulla connettività di diversi neuroni e regioni del cervello non sarà sufficiente.

I nuovi risultati sembrano anche pronti a influenzare le questioni nel campo dell’apprendimento automatico e dell’intelligenza artificiale. Le reti neurali artificiali si basano sul modello puntiforme, trattando i neuroni come nodi che contano gli ingressi e passano la somma attraverso una funzione di attività. “Pochissime persone hanno preso sul serio la nozione che un singolo neurone potrebbe essere un dispositivo computazionale complesso”, ha detto Gary Marcus, uno scienziato cognitivo presso la New York University e uno scettico dichiarato di alcune affermazioni fatte per l’apprendimento profondo.

Anche se l’articolo di Science è solo una scoperta in una vasta storia di lavoro che dimostra questa idea, ha aggiunto, gli scienziati informatici potrebbero essere più sensibili ad essa perché inquadra la questione in termini del problema XOR che ha perseguitato la ricerca sulle reti neurali per tanto tempo. “Sta dicendo che abbiamo davvero bisogno di pensare a questo”, ha detto Marcus. “L’intero gioco – trovare il modo di ottenere una cognizione intelligente dai neuroni stupidi – potrebbe essere sbagliato”.”

“Questa è una dimostrazione super pulita di questo”, ha aggiunto. “Parlerà al di sopra del rumore”

.