Możliwości przetwarzania informacji przez mózg są często opisywane jako rezydujące w trylionach połączeń, które łączą jego neurony razem. Ale w ciągu ostatnich kilku dekad, rosnące badania po cichu przeniosły część uwagi na pojedyncze neurony, które wydają się brać na swoje barki znacznie więcej odpowiedzialności obliczeniowej niż kiedyś wydawało się to możliwe.

Najnowszy w długiej linii dowodów pochodzi z odkrycia przez naukowców nowego typu sygnału elektrycznego w górnych warstwach ludzkiej kory mózgowej. Badania laboratoryjne i modelowe wykazały już, że maleńkie przedziały w ramionach dendrytycznych neuronów korowych mogą wykonywać skomplikowane operacje w logice matematycznej. Teraz jednak okazuje się, że pojedyncze przedziały dendrytyczne mogą również wykonywać szczególne obliczenia – „wyłączne OR” – które teoretycy matematyki wcześniej uznali za nierozwiązywalne dla systemów pojedynczych neuronów.

„Wierzę, że tylko zarysowujemy powierzchnię tego, co te neurony naprawdę robią”, powiedział Albert Gidon, stypendysta podoktorancki na Uniwersytecie Humboldta w Berlinie i pierwszy autor pracy, która przedstawiła te ustalenia w Science wcześniej w tym miesiącu.

Odkrycie oznacza rosnącą potrzebę badań układu nerwowego, aby rozważyć implikacje poszczególnych neuronów jako rozległych procesorów informacji. „Mózgi mogą być o wiele bardziej skomplikowane niż myślimy”, powiedział Konrad Kording, neurobiolog obliczeniowy na Uniwersytecie Pensylwanii, który nie brał udziału w ostatniej pracy. Może to również skłonić niektórych informatyków do ponownego przemyślenia strategii dla sztucznych sieci neuronowych, które tradycyjnie były budowane w oparciu o pogląd, że neurony są prostymi, nieinteligentnymi przełącznikami.

The Limitations of Dumb Neurons

W latach 40. i 50. w neuronauce zaczął dominować obraz „głupiego” neuronu, prostego integratora, punktu w sieci, który jedynie sumował swoje wejścia. Rozgałęzione przedłużenia komórki, zwane dendrytami, odbierały tysiące sygnałów z sąsiednich neuronów – niektóre pobudzające, inne hamujące. W ciele neuronu wszystkie te sygnały były ważone i sumowane, a jeśli suma przekraczała jakiś próg, neuron wystrzeliwał serię impulsów elektrycznych (potencjałów czynnościowych), które kierowały stymulacją sąsiednich neuronów.

Mniej więcej w tym samym czasie badacze zdali sobie sprawę, że pojedynczy neuron może również funkcjonować jako bramka logiczna, podobna do tych w obwodach cyfrowych (choć nadal nie jest jasne, ile mózg naprawdę oblicza w ten sposób podczas przetwarzania informacji). Neuron był efektywnie bramką AND, na przykład, jeśli uruchamiał się tylko po otrzymaniu pewnej wystarczającej liczby wejść.

Sieci neuronów mogłyby więc teoretycznie wykonywać dowolne obliczenia. Ten model neuronu był jednak ograniczony. Nie tylko jego przewodnie metafory obliczeniowe były uproszczone, ale przez dziesięciolecia naukowcom brakowało narzędzi eksperymentalnych do rejestrowania z różnych składników pojedynczej komórki nerwowej. „To jest zasadniczo neuron zwinięty w punkt w przestrzeni”, powiedział Bartlett Mel, neurobiolog obliczeniowy na Uniwersytecie Południowej Kalifornii. „Nie miał on żadnej wewnętrznej artykulacji aktywności”. Model ten ignorował fakt, że tysiące wejść płynących do danego neuronu lądowały w różnych miejscach wzdłuż jego różnych dendrytów. Ignorował ideę (ostatecznie potwierdzoną), że poszczególne dendryty mogą funkcjonować w różny sposób. I zignorował możliwość, że obliczenia mogą być wykonywane przez inne struktury wewnętrzne.

Ale to zaczęło się zmieniać w latach 80. Modelowanie przeprowadzone przez neuronaukowca Christofa Kocha i innych, poparte później eksperymentami w laboratorium, pokazało, że pojedyncze neurony nie wyrażają pojedynczego lub jednolitego sygnału napięciowego. Zamiast tego, sygnały napięciowe malały w miarę jak przesuwały się wzdłuż dendrytów do ciała neuronu i często nie wnosiły nic do ostatecznego wyjścia komórki.

Ta kompartmentalizacja sygnałów oznaczała, że oddzielne dendryty mogły przetwarzać informacje niezależnie od siebie. „To było sprzeczne z hipotezą neuronu punktowego, w której neuron po prostu sumował wszystko, niezależnie od lokalizacji”, powiedział Mel.

To skłoniło Kocha i innych neuronaukowców, w tym Gordona Shepherda z Yale School of Medicine, do modelowania, jak struktura dendrytów może w zasadzie pozwolić neuronom działać nie jako proste bramki logiczne, ale jako złożone, wielopodmiotowe systemy przetwarzania. Symulowali oni, jak drzewa dendrytyczne mogłyby gościć liczne operacje logiczne, poprzez serię złożonych hipotetycznych mechanizmów.

Później, Mel i kilku kolegów przyjrzeli się dokładniej, jak komórka może zarządzać wieloma wejściami w obrębie swoich indywidualnych dendrytów. To, co znaleźli, zaskoczyło ich: Dendryty generowały lokalne spajki, miały swoje własne nieliniowe krzywe wejścia-wyjścia i miały swoje własne progi aktywacji, różne od tych z neuronu jako całości. Same dendryty mogły działać jako bramki AND lub jako wiele innych urządzeń obliczeniowych.

Mel, wraz ze swoją byłą studentką Yiotą Poirazi (obecnie neurobiologiem obliczeniowym w Instytucie Biologii Molekularnej i Biotechnologii w Grecji), zdali sobie sprawę, że oznacza to, iż mogą wyobrazić sobie pojedynczy neuron jako dwuwarstwową sieć. Dendryty służyłyby jako nieliniowe podjednostki obliczeniowe, zbierające sygnały wejściowe i wypluwające pośrednie sygnały wyjściowe. Sygnały te zostałyby następnie połączone w ciele komórkowym, które określiłoby, jak neuron jako całość zareaguje.

Czy aktywność na poziomie dendrytów faktycznie wpłynęła na odpalenie neuronu i aktywność sąsiednich neuronów była nadal niejasna. Ale niezależnie od tego, że lokalne przetwarzanie może przygotować lub warunkować system, aby odpowiedzieć inaczej na przyszłe dane wejściowe lub pomóc okablować go na nowe sposoby, według Shepherd.

Cokolwiek w tym przypadku, „tendencja wtedy było, 'OK, uważaj, neuron może być bardziej potężny niż myślałeś,'” Mel said.

Shepherd zgodził się. „Wiele z mocy przetwarzania, które odbywa się w korze mózgowej jest rzeczywiście podprogowe”, powiedział. „System pojedynczego neuronu może być czymś więcej niż tylko jednym systemem integracyjnym. Może być dwiema warstwami, a nawet więcej.” W teorii, prawie każde wyobrażalne obliczenie może być wykonane przez jeden neuron z wystarczającą ilością dendrytów, z których każdy jest w stanie wykonać swoją własną nieliniową operację.

W ostatnim artykule Science, badacze posunęli ten pomysł o krok dalej: Zasugerowali, że pojedynczy przedział dendrytyczny może być w stanie wykonywać te złożone obliczenia samodzielnie.

Niespodziewane kolce i stare przeszkody

Matthew Larkum, neuronaukowiec z Humboldt, i jego zespół zaczęli przyglądać się dendrytom, mając na myśli inne pytanie. Ponieważ aktywność dendrytyczna była badana głównie u gryzoni, naukowcy chcieli sprawdzić, jak sygnalizacja elektryczna może być inna w ludzkich neuronach, które mają znacznie dłuższe dendryty. Uzyskali plasterki tkanki mózgowej z warstw 2 i 3 ludzkiej kory mózgowej, które zawierają szczególnie duże neurony z wieloma dendrytami. Kiedy stymulowali te dendryty prądem elektrycznym, zauważyli coś dziwnego.

Widzieli nieoczekiwane, powtarzające się pikanie – i te piknięcia wydawały się zupełnie niepodobne do innych znanych rodzajów sygnalizacji neuronalnej. Były one szczególnie szybkie i krótkie, jak potencjały czynnościowe, i powstały z przepływów jonów wapnia. Było to warte odnotowania, ponieważ konwencjonalne potencjały czynnościowe są zwykle wywoływane przez jony sodu i potasu. I podczas gdy sygnalizacja wywołana wapniem była wcześniej obserwowana w dendrytach gryzoni, te kolce miały tendencję do trwania znacznie dłużej.

Co dziwniejsze, podawanie większej ilości stymulacji elektrycznej do dendrytów obniżało intensywność odpalania neuronu zamiast ją zwiększać. „Nagle, stymulujemy więcej i dostajemy mniej,” powiedział Gidon. „To przykuło naszą uwagę.”

Aby dowiedzieć się, co może robić nowy rodzaj pikania, naukowcy połączyli siły z Poirazi i badaczką z jej laboratorium w Grecji, Athanasią Papoutsi, którzy wspólnie stworzyli model odzwierciedlający zachowanie neuronów.

Model wykazał, że dendryt piknął w odpowiedzi na dwa oddzielne wejścia – ale nie udało się tego zrobić, gdy te wejścia zostały połączone. Było to równoważne nieliniowemu obliczeniu znanemu jako wyłączne OR (lub XOR), które daje binarne wyjście 1, jeśli jedno (ale tylko jedno) z wejść jest 1.

To odkrycie natychmiast uderzyło w akord ze społecznością informatyków. Funkcje XOR były przez wiele lat uważane za niemożliwe w pojedynczych neuronach: W swojej książce Perceptrony z 1969 roku informatycy Marvin Minsky i Seymour Papert przedstawili dowód, że jednowarstwowe sztuczne sieci nie mogą wykonywać XOR. Wniosek ten był tak druzgocący, że wielu informatyków obwiniało go za marazm, w jaki popadły badania nad sieciami neuronowymi aż do lat 80-tych.

Badacze sieci neuronowych w końcu znaleźli sposoby na ominięcie przeszkody, którą zidentyfikowali Minsky i Papert, a neuronaukowcy znaleźli przykłady tych rozwiązań w naturze. Na przykład Poirazi wiedziała już, że XOR jest możliwy w pojedynczym neuronie: tylko dwa dendryty razem mogą go osiągnąć. Ale w tych nowych eksperymentach, ona i jej koledzy oferowali wiarygodny mechanizm biofizyczny, aby to ułatwić – w pojedynczym dendrycie.

„Dla mnie jest to kolejny stopień elastyczności, że system ma,” Poirazi powiedział. „To tylko pokazuje, że ten system ma wiele różnych sposobów obliczania”. Mimo to zwraca uwagę, że jeśli pojedynczy neuron mógłby już rozwiązać tego rodzaju problem, „dlaczego system zadałby sobie tyle trudu, aby wymyślić bardziej skomplikowane jednostki wewnątrz neuronu?”

Processors Within Processors

Z pewnością nie wszystkie neurony są takie. Według Gidona, w innych częściach mózgu jest mnóstwo mniejszych, podobnych do punktów neuronów. Przypuszczalnie więc ta neuronalna złożoność istnieje z jakiegoś powodu. Dlaczego więc pojedyncze przedziały w obrębie neuronu potrzebują zdolności do robienia tego, co cały neuron, lub mała sieć neuronów, może robić równie dobrze? Oczywistą możliwością jest to, że neuron zachowujący się jak wielowarstwowa sieć ma znacznie większą moc przetwarzania i dlatego może się więcej nauczyć lub więcej przechowywać. „Może masz głęboką sieć w obrębie pojedynczego neuronu” – powiedział Poirazi. „I to jest o wiele bardziej potężne w kategoriach uczenia się trudnych problemów, w kategoriach poznania.”

Może, Kording dodał, „pojedynczy neuron może być w stanie obliczyć naprawdę złożone funkcje. Na przykład, może on, sam w sobie, być w stanie rozpoznać obiekt.” Posiadanie takich potężnych pojedynczych neuronów, według Poirazi, może również pomóc mózgowi zachować energię.

Grupa Larkuma planuje szukać podobnych sygnałów w dendrytach gryzoni i innych zwierząt, aby ustalić, czy ta zdolność obliczeniowa jest unikalna dla ludzi. Chcą również wyjść poza zakres swojego modelu, aby powiązać aktywność neuronalną, którą zaobserwowali z rzeczywistym zachowaniem. Tymczasem Poirazi ma teraz nadzieję na porównanie obliczeń w tych dendrytach z tym, co dzieje się w sieci neuronów, aby odkryć wszelkie zalety, jakie mogą mieć te pierwsze. Będzie to obejmować testowanie innych rodzajów operacji logicznych i badanie, jak te operacje mogą przyczynić się do uczenia się lub pamięci. „Dopóki tego nie odwzorujemy, nie będziemy w stanie powiedzieć, jak potężne jest to odkrycie”, powiedział Poirazi.

Choć wciąż jest wiele do zrobienia, naukowcy wierzą, że te odkrycia oznaczają potrzebę ponownego przemyślenia sposobu, w jaki modeluje się mózg i jego szersze funkcje. Koncentrując się na łączności różnych neuronów i regionów mózgu nie wystarczy.

Nowe wyniki również wydają się wpływać na pytania w uczenia maszynowego i sztucznej inteligencji pól. Sztuczne sieci neuronowe opierają się na modelu punktowym, traktując neurony jako węzły, które liczą wejścia i przekazują sumę przez funkcję aktywności. „Bardzo niewiele osób wzięło na poważnie pomysł, że pojedynczy neuron może być złożonym urządzeniem obliczeniowym”, powiedział Gary Marcus, kognitywista z New York University i zdecydowany sceptyk niektórych roszczeń dotyczących głębokiego uczenia się. „To jest powiedzenie, że naprawdę musimy się nad tym zastanowić”, powiedział Marcus. „Cała gra – wymyślić, jak można uzyskać inteligentne poznanie z głupich neuronów – może być źle.”

„To jest super czysta demonstracja tego,” dodał. „To będzie mówić ponad hałasem.”

.