La capacidad de procesamiento de información del cerebro suele residir en los billones de conexiones que conectan sus neuronas. Pero en las últimas décadas, la creciente investigación ha desplazado silenciosamente parte de la atención hacia las neuronas individuales, que parecen asumir una responsabilidad computacional mucho mayor de lo que antes parecía imaginable.

La última de una larga serie de pruebas procede del descubrimiento por parte de los científicos de un nuevo tipo de señal eléctrica en las capas superiores del córtex humano. Los estudios de laboratorio y de modelización ya han demostrado que los diminutos compartimentos de los brazos dendríticos de las neuronas corticales pueden realizar cada uno de ellos complicadas operaciones de lógica matemática. Pero ahora parece que los compartimentos dendríticos individuales también pueden realizar un cálculo particular – «OR exclusivo»- que los teóricos matemáticos habían catalogado previamente como irresoluble por los sistemas de una sola neurona.

«Creo que sólo estamos arañando la superficie de lo que realmente hacen estas neuronas», dijo Albert Gidon, becario postdoctoral de la Universidad Humboldt de Berlín y primer autor del artículo que presentó estos hallazgos en Science a principios de este mes.

El descubrimiento marca una creciente necesidad de que los estudios del sistema nervioso consideren las implicaciones de las neuronas individuales como extensos procesadores de información. «Los cerebros pueden ser mucho más complicados de lo que pensamos», dijo Konrad Kording, neurocientífico computacional de la Universidad de Pensilvania, que no participó en el reciente trabajo. También puede incitar a algunos informáticos a reevaluar las estrategias de las redes neuronales artificiales, que tradicionalmente se han construido sobre la base de una visión de las neuronas como simples interruptores poco inteligentes.

Las limitaciones de las neuronas tontas

En las décadas de 1940 y 1950, una imagen comenzó a dominar la neurociencia: la de la neurona «tonta», un simple integrador, un punto en una red que simplemente sumaba sus entradas. Las prolongaciones ramificadas de la célula, llamadas dendritas, recibían miles de señales de las neuronas vecinas, algunas excitatorias y otras inhibitorias. En el cuerpo de la neurona, todas esas señales se ponderaban y se contaban, y si el total superaba algún umbral, la neurona disparaba una serie de impulsos eléctricos (potenciales de acción) que dirigían la estimulación de las neuronas adyacentes.

Alrededor de la misma época, los investigadores se dieron cuenta de que una sola neurona también podía funcionar como una puerta lógica, similar a las de los circuitos digitales (aunque todavía no está claro hasta qué punto el cerebro realmente computa de esta manera al procesar la información). Una neurona era efectivamente una puerta AND, por ejemplo, si se disparaba sólo después de recibir un número suficiente de entradas.

Las redes de neuronas podrían, por tanto, realizar teóricamente cualquier cálculo. Sin embargo, este modelo de la neurona era limitado. No sólo las metáforas computacionales que lo guiaban eran simplistas, sino que durante décadas los científicos carecieron de las herramientas experimentales necesarias para registrar los distintos componentes de una única célula nerviosa. «Esencialmente, la neurona se colapsaba en un punto en el espacio», dijo Bartlett Mel, neurocientífico computacional de la Universidad del Sur de California. «No tenía ninguna articulación interna de la actividad». El modelo ignoraba el hecho de que los miles de entradas que fluyen hacia una determinada neurona aterrizan en diferentes lugares a lo largo de sus distintas dendritas. Ignoraba la idea (finalmente confirmada) de que las dendritas individuales podían funcionar de forma diferente unas de otras. E ignoraba la posibilidad de que los cálculos fueran realizados por otras estructuras internas.

Pero eso empezó a cambiar en la década de 1980. Los trabajos de modelización realizados por el neurocientífico Christof Koch y otros, apoyados posteriormente por experimentos de laboratorio, demostraron que las neuronas individuales no expresaban una señal de voltaje única o uniforme. Por el contrario, las señales de voltaje disminuían a medida que se desplazaban por las dendritas hacia el cuerpo de la neurona, y a menudo no contribuían en nada a la producción final de la célula.

Esta compartimentación de las señales significaba que dendritas separadas podían estar procesando información de forma independiente unas de otras. «Esto no concuerda con la hipótesis de la neurona puntual, en la que una neurona simplemente suma todo, independientemente de su ubicación», dijo Mel.

Eso llevó a Koch y a otros neurocientíficos, entre ellos Gordon Shepherd, de la Facultad de Medicina de Yale, a modelar cómo la estructura de las dendritas podría, en principio, permitir a las neuronas actuar no como simples puertas lógicas, sino como complejos sistemas de procesamiento de múltiples unidades. Simularon cómo los árboles dendríticos podrían albergar numerosas operaciones lógicas, a través de una serie de complejos mecanismos hipotéticos.

Más tarde, Mel y varios colegas examinaron con más detalle cómo la célula podría gestionar múltiples entradas dentro de sus dendritas individuales. Lo que encontraron les sorprendió: Las dendritas generaban picos locales, tenían sus propias curvas de entrada-salida no lineales y tenían sus propios umbrales de activación, distintos de los de la neurona en su conjunto. Las propias dendritas podían actuar como puertas AND, o como otros dispositivos de computación.

Mel, junto con su antigua estudiante de posgrado Yiota Poirazi (ahora neurocientífica computacional en el Instituto de Biología Molecular y Biotecnología de Grecia), se dio cuenta de que esto significaba que podían concebir una sola neurona como una red de dos capas. Las dendritas actuarían como subunidades de cálculo no lineal, recogiendo entradas y emitiendo salidas intermedias. Esas señales se combinarían en el cuerpo celular, que determinaría la respuesta de la neurona en su conjunto.

Aún no está claro si la actividad a nivel dendrítico influye realmente en el disparo de la neurona y en la actividad de las neuronas vecinas. Pero, independientemente de ello, ese procesamiento local podría preparar o condicionar el sistema para responder de forma diferente a futuras entradas o ayudar a cablearlo de nuevas maneras, según Shepherd.

Sea cual sea el caso, «la tendencia entonces era, ‘OK, ten cuidado, la neurona podría ser más poderosa de lo que pensabas'», dijo Mel.

Shepherd estuvo de acuerdo. «Gran parte de la potencia del procesamiento que tiene lugar en el córtex es en realidad subumbral», dijo. «Un sistema de una sola neurona puede ser más que un sistema integrador. Puede ser dos capas, o incluso más». En teoría, casi cualquier cálculo imaginable podría ser realizado por una sola neurona con suficientes dendritas, cada una capaz de realizar su propia operación no lineal.

En el reciente artículo de Science, los investigadores llevaron esta idea un paso más allá: Sugirieron que un único compartimento dendrítico podría ser capaz de realizar estos complejos cálculos por sí solo.

Picos inesperados y viejos obstáculos

Matthew Larkum, neurocientífico de Humboldt, y su equipo empezaron a observar las dendritas con una pregunta diferente en mente. Dado que la actividad dendrítica se había estudiado principalmente en roedores, los investigadores querían investigar cómo la señalización eléctrica podría ser diferente en las neuronas humanas, que tienen dendritas mucho más largas. Obtuvieron cortes de tejido cerebral de las capas 2 y 3 de la corteza humana, que contienen neuronas especialmente grandes con muchas dendritas. Cuando estimularon esas dendritas con una corriente eléctrica, notaron algo extraño.

Vieron picos inesperados y repetidos – y esos picos parecían completamente diferentes a otros tipos conocidos de señalización neuronal. Eran especialmente rápidos y breves, como los potenciales de acción, y surgían de los flujos de iones de calcio. Esto era digno de mención porque los potenciales de acción convencionales suelen estar causados por iones de sodio y potasio. Y aunque la señalización inducida por el calcio se había observado anteriormente en las dendritas de roedores, esos picos tendían a durar mucho más tiempo.

Más extraño aún es que al introducir más estimulación eléctrica en las dendritas disminuía la intensidad de los disparos de la neurona en lugar de aumentarla. «De repente, estimulamos más y obtenemos menos», dijo Gidon. «Eso nos llamó la atención».

Para averiguar lo que podría estar haciendo el nuevo tipo de pico, los científicos se asociaron con Poirazi y con una investigadora de su laboratorio en Grecia, Athanasia Papoutsi, que crearon conjuntamente un modelo para reflejar el comportamiento de las neuronas.

El modelo descubrió que la dendrita tenía un pico en respuesta a dos entradas separadas – pero no lo hacía cuando esas entradas se combinaban. Esto equivalía a un cálculo no lineal conocido como OR exclusivo (o XOR), que produce una salida binaria de 1 si una (pero sólo una) de las entradas es 1.

Este hallazgo inmediatamente tocó la fibra sensible de la comunidad informática. Durante muchos años, las funciones XOR se consideraron imposibles en las neuronas individuales: En su libro Perceptrones, de 1969, los informáticos Marvin Minsky y Seymour Papert ofrecieron una prueba de que las redes artificiales de una sola capa no podían realizar XOR. Esa conclusión fue tan devastadora que muchos informáticos la culparon del estancamiento en el que cayó la investigación de las redes neuronales hasta la década de 1980.

Los investigadores de redes neuronales acabaron encontrando formas de esquivar el obstáculo que Minsky y Papert identificaron, y los neurocientíficos encontraron ejemplos de esas soluciones en la naturaleza. Por ejemplo, Poirazi ya sabía que XOR era posible en una sola neurona: sólo dos dendritas juntas podían lograrlo. Pero en estos nuevos experimentos, ella y sus colegas ofrecían un mecanismo biofísico plausible para facilitarlo, en una sola dendrita.

«Para mí, es otro grado de flexibilidad que tiene el sistema», dijo Poirazi. «Simplemente demuestra que este sistema tiene muchas formas diferentes de computación». Aun así, señala que si una sola neurona ya podía resolver este tipo de problemas, «¿por qué el sistema se tomaría la molestia de crear unidades más complicadas dentro de la neurona?»

Procesadores dentro de procesadores

Ciertamente, no todas las neuronas son así. Según Gidon, hay un montón de neuronas más pequeñas y puntuales en otras partes del cerebro. Presumiblemente, entonces, esta complejidad neuronal existe por una razón. Entonces, ¿por qué los compartimentos individuales de una neurona necesitan la capacidad de hacer lo que toda la neurona, o una pequeña red de neuronas, puede hacer perfectamente? La posibilidad obvia es que una neurona que se comporta como una red multicapa tiene mucha más capacidad de procesamiento y, por tanto, puede aprender o almacenar más. «Tal vez tengas una red profunda dentro de una sola neurona», dijo Poirazi. «Y eso es mucho más potente en términos de aprendizaje de problemas difíciles, en términos de cognición».

Quizás, añadió Kording, «una sola neurona puede ser capaz de computar funciones verdaderamente complejas. Por ejemplo, podría, por sí sola, ser capaz de reconocer un objeto». Disponer de neuronas individuales tan potentes, según Poirazi, también podría ayudar al cerebro a conservar energía.

El grupo de Larkum planea buscar señales similares en las dendritas de roedores y otros animales, para determinar si esta capacidad de cálculo es exclusiva de los humanos. También quieren ir más allá del alcance de su modelo para asociar la actividad neuronal que observaron con el comportamiento real. Mientras tanto, Poirazi espera comparar los cálculos en estas dendritas con lo que ocurre en una red de neuronas, para averiguar cualquier ventaja que pueda tener la primera. Esto incluirá pruebas de otros tipos de operaciones lógicas y la exploración de cómo esas operaciones podrían contribuir al aprendizaje o la memoria. «Hasta que no mapeemos esto, no podremos decir realmente lo poderoso que es este descubrimiento», dijo Poirazi.

Aunque todavía queda mucho trabajo por hacer, los investigadores creen que estos descubrimientos marcan la necesidad de repensar cómo modelan el cerebro y sus funciones más amplias. Centrarse en la conectividad de las diferentes neuronas y regiones del cerebro no será suficiente.

Los nuevos resultados también parecen estar preparados para influir en las cuestiones del aprendizaje automático y la inteligencia artificial. Las redes neuronales artificiales se basan en el modelo de puntos, tratando a las neuronas como nodos que cuentan las entradas y pasan la suma a través de una función de actividad. «Muy poca gente se ha tomado en serio la idea de que una sola neurona podría ser un dispositivo computacional complejo», dijo Gary Marcus, un científico cognitivo de la Universidad de Nueva York y un abierto escéptico de algunas afirmaciones hechas para el aprendizaje profundo.

Aunque el artículo de Science no es más que un hallazgo en una extensa historia de trabajo que demuestra esta idea, agregó, los científicos de la computación podrían ser más receptivos a ella porque enmarca la cuestión en términos del problema XOR que persiguió la investigación de redes neuronales durante tanto tiempo. «Es decir, tenemos que pensar en esto», dijo Marcus. «Todo el juego – para llegar a la forma de obtener la cognición inteligente de las neuronas tontas – podría estar equivocado»

«Esta es una demostración súper limpia de eso», agregó. «Va a hablar por encima del ruido».