Les capacités de traitement de l’information du cerveau sont souvent rapportées comme résidant dans les trillions de connexions qui relient ses neurones entre eux. Mais au cours des dernières décennies, des recherches de plus en plus nombreuses ont discrètement déplacé une partie de l’attention vers les neurones individuels, qui semblent assumer beaucoup plus de responsabilités en matière de calcul qu’il ne semblait autrefois imaginable.

La dernière en date d’une longue série de preuves provient de la découverte par les scientifiques d’un nouveau type de signal électrique dans les couches supérieures du cortex humain. Des études de laboratoire et de modélisation ont déjà montré que de minuscules compartiments dans les bras dendritiques des neurones corticaux peuvent chacun effectuer des opérations compliquées de logique mathématique. Mais il semble maintenant que les compartiments dendritiques individuels peuvent également effectuer un calcul particulier – le « OU exclusif » – que les théoriciens des mathématiques avaient auparavant classé comme insoluble par les systèmes à neurones uniques.

« Je crois que nous ne faisons qu’effleurer la surface de ce que ces neurones font vraiment », a déclaré Albert Gidon, un boursier postdoctoral à l’Université Humboldt de Berlin et le premier auteur de l’article qui a présenté ces résultats dans Science au début du mois.

La découverte marque un besoin croissant pour les études du système nerveux de considérer les implications des neurones individuels comme des processeurs d’information étendus. « Les cerveaux sont peut-être beaucoup plus compliqués que nous le pensons », a déclaré Konrad Kording, un neuroscientifique computationnel de l’Université de Pennsylvanie, qui n’a pas participé aux récents travaux. Cela pourrait également inciter certains informaticiens à réévaluer les stratégies des réseaux neuronaux artificiels, qui ont traditionnellement été construits sur la base d’une vision des neurones comme de simples interrupteurs inintelligents.

Les limites des neurones muets

Dans les années 1940 et 1950, une image a commencé à dominer les neurosciences : celle du neurone « muet », un simple intégrateur, un point dans un réseau qui ne faisait que sommer ses entrées. Les extensions ramifiées de la cellule, appelées dendrites, recevaient des milliers de signaux des neurones voisins, certains excitateurs, d’autres inhibiteurs. Dans le corps du neurone, tous ces signaux seraient pondérés et additionnés, et si le total dépassait un certain seuil, le neurone émettait une série d’impulsions électriques (potentiels d’action) qui dirigeaient la stimulation des neurones adjacents.

A peu près à la même époque, les chercheurs ont réalisé qu’un seul neurone pouvait également fonctionner comme une porte logique, semblable à celles des circuits numériques (bien que l’on ne sache toujours pas dans quelle mesure le cerveau calcule réellement de cette manière lorsqu’il traite l’information). Un neurone était effectivement une porte ET, par exemple, s’il ne se déclenchait qu’après avoir reçu un nombre suffisant d’entrées.

Des réseaux de neurones pourraient donc théoriquement effectuer n’importe quel calcul. Cependant, ce modèle de neurone était limité. Non seulement ses métaphores computationnelles directrices étaient simplistes, mais pendant des décennies, les scientifiques n’avaient pas les outils expérimentaux nécessaires pour enregistrer à partir des différents composants d’une seule cellule nerveuse. « C’est essentiellement le neurone qui a été réduit à un point dans l’espace », a déclaré Bartlett Mel, un neuroscientifique computationnel à l’Université de Californie du Sud. « Il n’y avait pas d’articulation interne de l’activité ». Le modèle ignorait le fait que les milliers d’entrées qui affluent dans un neurone donné atterrissent à différents endroits le long de ses diverses dendrites. Il ignorait l’idée (finalement confirmée) que les dendrites individuelles pouvaient fonctionner différemment les unes des autres. Et elle ignorait la possibilité que les calculs puissent être effectués par d’autres structures internes.

Mais cela a commencé à changer dans les années 1980. Les travaux de modélisation menés par le neuroscientifique Christof Koch et d’autres, étayés plus tard par des expériences en laboratoire, ont montré que les neurones individuels n’exprimaient pas un signal de tension unique ou uniforme. Au contraire, les signaux de tension diminuaient au fur et à mesure qu’ils se déplaçaient le long des dendrites vers le corps du neurone, et souvent ne contribuaient en rien à la sortie finale de la cellule.

Cette compartimentation des signaux signifiait que des dendrites distinctes pouvaient traiter des informations indépendamment les unes des autres. « Cela allait à l’encontre de l’hypothèse du neurone ponctuel, dans laquelle un neurone additionne simplement tout, quel que soit son emplacement », a déclaré Mel.

Ce qui a incité Koch et d’autres neuroscientifiques, dont Gordon Shepherd de l’école de médecine de Yale, à modéliser comment la structure des dendrites pourrait en principe permettre aux neurones d’agir non pas comme de simples portes logiques, mais comme des systèmes de traitement complexes et multi-unités. Ils ont simulé comment les arbres dendritiques pouvaient accueillir de nombreuses opérations logiques, par le biais d’une série de mécanismes hypothétiques complexes.

Plus tard, Mel et plusieurs collègues ont examiné de plus près comment la cellule pouvait gérer des entrées multiples au sein de ses dendrites individuelles. Ce qu’ils ont trouvé les a surpris : Les dendrites généraient des pointes locales, avaient leurs propres courbes d’entrée-sortie non linéaires et avaient leurs propres seuils d’activation, distincts de ceux du neurone dans son ensemble. Les dendrites elles-mêmes pouvaient agir comme des portes ET, ou comme une foule d’autres dispositifs informatiques.

Mel, ainsi que son ancienne étudiante diplômée Yiota Poirazi (aujourd’hui neuroscientifique computationnelle à l’Institut de biologie moléculaire et de biotechnologie en Grèce), ont réalisé que cela signifiait qu’ils pouvaient concevoir un neurone unique comme un réseau à deux couches. Les dendrites serviraient de sous-unités de calcul non linéaires, collectant les entrées et produisant des sorties intermédiaires. Ces signaux seraient ensuite combinés dans le corps cellulaire, qui déterminerait la réponse du neurone dans son ensemble.

On ne sait toujours pas si l’activité au niveau des dendrites influence réellement le tir du neurone et l’activité des neurones voisins. Mais quoi qu’il en soit, ce traitement local pourrait préparer ou conditionner le système à répondre différemment à des entrées futures ou aider à le câbler de nouvelles façons, selon Shepherd.

Quoi qu’il en soit, « la tendance était alors de dire ‘OK, faites attention, le neurone pourrait être plus puissant que vous ne le pensiez' », a déclaré Mel.

Shepherd était d’accord. « Une grande partie de la puissance du traitement qui a lieu dans le cortex est en fait sous-seuil », a-t-il dit. « Un système à neurone unique peut être plus qu’un seul système intégratif. Il peut être constitué de deux couches, voire plus. » En théorie, presque tous les calculs imaginables pourraient être effectués par un seul neurone avec suffisamment de dendrites, chacune capable d’effectuer sa propre opération non linéaire.

Dans le récent article de Science, les chercheurs ont poussé cette idée un peu plus loin : Ils ont suggéré qu’un seul compartiment dendritique pourrait être capable d’effectuer ces calculs complexes tout seul.

Pics inattendus et vieux obstacles

Matthew Larkum, neuroscientifique à Humboldt, et son équipe ont commencé à examiner les dendrites avec une question différente en tête. L’activité dendritique ayant été étudiée principalement chez les rongeurs, les chercheurs voulaient étudier comment la signalisation électrique pouvait être différente dans les neurones humains, qui ont des dendrites beaucoup plus longues. Ils ont obtenu des tranches de tissu cérébral des couches 2 et 3 du cortex humain, qui contiennent des neurones particulièrement gros et dotés de nombreuses dendrites. Lorsqu’ils ont stimulé ces dendrites avec un courant électrique, ils ont remarqué quelque chose d’étrange.

Ils ont vu des pics inattendus et répétés – et ces pics semblaient complètement différents des autres types connus de signalisation neuronale. Ils étaient particulièrement rapides et brefs, comme des potentiels d’action, et provenaient de flux d’ions calcium. Ceci est remarquable car les potentiels d’action conventionnels sont généralement causés par des ions sodium et potassium. Et si la signalisation induite par le calcium avait déjà été observée dans les dendrites des rongeurs, ces pointes avaient tendance à durer beaucoup plus longtemps.

Plus étrange encore, le fait d’alimenter davantage de stimulation électrique dans les dendrites a diminué l’intensité des tirs du neurone au lieu de l’augmenter. « Tout à coup, on stimule plus et on obtient moins », a déclaré Gidon. « Cela a attiré notre attention. »

Pour comprendre ce que ce nouveau type de stimulation pourrait faire, les scientifiques ont fait équipe avec Poirazi et une chercheuse de son laboratoire en Grèce, Athanasia Papoutsi, qui ont conjointement créé un modèle pour refléter le comportement des neurones.

Le modèle a constaté que la dendrite a fait des pics en réponse à deux entrées distinctes – mais n’a pas réussi à le faire lorsque ces entrées ont été combinées. Cela équivalait à un calcul non linéaire connu sous le nom de OU exclusif (ou XOR), qui donne une sortie binaire de 1 si une (mais une seule) des entrées est 1.

Cette découverte a immédiatement touché une corde sensible dans la communauté informatique. Les fonctions XOR ont été pendant de nombreuses années jugées impossibles dans les neurones uniques : Dans leur livre Perceptrons de 1969, les informaticiens Marvin Minsky et Seymour Papert ont offert une preuve que les réseaux artificiels à une seule couche ne pouvaient pas effectuer de XOR. Cette conclusion était si dévastatrice que de nombreux informaticiens lui ont attribué le marasme dans lequel la recherche sur les réseaux neuronaux est tombée jusqu’aux années 1980.

Les chercheurs en réseaux neuronaux ont fini par trouver des moyens d’esquiver l’obstacle identifié par Minsky et Papert, et les neuroscientifiques ont trouvé des exemples de ces solutions dans la nature. Par exemple, Poirazi savait déjà que le XOR était possible dans un seul neurone : il suffisait de deux dendrites réunies pour y parvenir. Mais dans ces nouvelles expériences, elle et ses collègues offraient un mécanisme biophysique plausible pour le faciliter – dans une seule dendrite.

« Pour moi, c’est un autre degré de flexibilité que le système a », a déclaré Poirazi. « Cela vous montre simplement que ce système a de nombreuses façons différentes de calculer ». Elle fait tout de même remarquer que si un seul neurone pouvait déjà résoudre ce genre de problème, « pourquoi le système se donnerait-il la peine d’imaginer des unités plus compliquées à l’intérieur du neurone ? »

Processeurs dans les processeurs

Certes, tous les neurones ne sont pas comme ça. Selon Gidon, il y a beaucoup de neurones plus petits, semblables à des points, dans d’autres parties du cerveau. On peut donc supposer que cette complexité neuronale existe pour une raison. Alors pourquoi des compartiments uniques au sein d’un neurone doivent-ils avoir la capacité de faire ce que le neurone entier, ou un petit réseau de neurones, peut très bien faire ? La possibilité évidente est qu’un neurone se comportant comme un réseau multicouche a une puissance de traitement beaucoup plus importante et peut donc apprendre ou stocker davantage. « Peut-être avez-vous un réseau profond à l’intérieur d’un seul neurone », a déclaré Poirazi. « Et c’est beaucoup plus puissant en termes d’apprentissage de problèmes difficiles, en termes de cognition. »

Peut-être, ajoute Kording, « qu’un seul neurone pourrait être capable de calculer des fonctions vraiment complexes. Par exemple, il pourrait, à lui seul, être capable de reconnaître un objet. » Avoir des neurones individuels aussi puissants, selon Poirazi, pourrait également aider le cerveau à conserver son énergie.

Le groupe de Larkum prévoit de rechercher des signaux similaires dans les dendrites des rongeurs et d’autres animaux, afin de déterminer si cette capacité de calcul est propre à l’homme. Ils veulent également dépasser le cadre de leur modèle pour associer l’activité neuronale observée à un comportement réel. Entre-temps, M. Poirazi espère maintenant comparer les calculs effectués dans ces dendrites à ce qui se passe dans un réseau de neurones, afin de déceler les avantages que les premiers pourraient avoir. Il s’agira notamment de tester d’autres types d’opérations logiques et d’étudier comment ces opérations pourraient contribuer à l’apprentissage ou à la mémoire. « Tant que nous n’avons pas cartographié cela, nous ne pouvons pas vraiment dire à quel point cette découverte est puissante », a déclaré Poirazi.

Bien qu’il y ait encore beaucoup de travail à faire, les chercheurs pensent que ces résultats marquent la nécessité de repenser la façon dont ils modélisent le cerveau et ses fonctions plus larges. Se concentrer sur la connectivité des différents neurones et régions du cerveau ne sera pas suffisant.

Les nouveaux résultats semblent également prêts à influencer les questions dans les domaines de l’apprentissage automatique et de l’intelligence artificielle. Les réseaux neuronaux artificiels s’appuient sur le modèle ponctuel, traitant les neurones comme des nœuds qui comptabilisent les entrées et font passer la somme par une fonction d’activité. « Très peu de gens ont pris au sérieux l’idée qu’un seul neurone puisse être un dispositif de calcul complexe », a déclaré Gary Marcus, un spécialiste des sciences cognitives à l’Université de New York et un sceptique déclaré de certaines revendications faites pour l’apprentissage profond.

Bien que l’article de Science ne soit qu’une découverte dans une longue histoire de travaux qui démontrent cette idée, a-t-il ajouté, les informaticiens pourraient être plus sensibles à cette idée parce qu’elle cadre la question en termes de problème XOR qui a dogué la recherche sur les réseaux neuronaux pendant si longtemps. « Cela revient à dire que nous devons vraiment y réfléchir », a déclaré M. Marcus. « Tout le jeu – trouver comment obtenir une cognition intelligente à partir de neurones muets – pourrait être faux. »

« C’est une démonstration super propre de cela », a-t-il ajouté. « Ça va parler au-dessus du bruit. »