Por la Universidad de Graduados del Instituto de Ciencia y Tecnología de Okinawa (OIST), 9 de marzo de 2023
Los investigadores han desarrollado un nuevo modelo inspirado en descubrimientos biológicos recientes que muestra un mejor rendimiento de la memoria. Esto se logró modificando una red neuronal clásica.
Los modelos informáticos desempeñan un papel crucial en la investigación del proceso cerebral de creación y retención de recuerdos y otra información compleja. Sin embargo, construir tales modelos es una tarea delicada. La intrincada interacción de señales eléctricas y bioquímicas, así como la red de conexiones entre las neuronas y otros tipos de células, crea la infraestructura para la formación de recuerdos. A pesar de esto, la codificación de la compleja biología del cerebro en un modelo informático para su posterior estudio ha demostrado ser una tarea difícil debido a la comprensión limitada de la biología subyacente del cerebro.
Investigadores del Instituto de Ciencia y Tecnología de Okinawa (OIST) han realizado mejoras en un modelo ampliamente utilizado de memoria informática conocido como la red de Hopfield, incorporando información de la biología. La alteración dio como resultado una red que no solo refleja mejor la forma en que las neuronas y otras células están conectadas en el cerebro, sino que también tiene la capacidad de almacenar muchos más recuerdos.
La complejidad añadida a la red es lo que la hace más realista, dice Thomas Burns, Ph.D. estudiante del grupo del profesor Tomoki Fukai, quien dirige la Unidad de Codificación Neural y Computación Cerebral de la OIST.
“¿Por qué la biología tendría toda esta complejidad? La capacidad de la memoria podría ser una de las razones”, dice el Sr. Quemaduras.
Las redes de Hopfield almacenan recuerdos como patrones de conexiones ponderadas entre diferentes neuronas en el sistema. La red está «entrenada» para codificar estos patrones, por lo que los investigadores pueden probar su memoria de ellos presentando una serie de patrones borrosos o incompletos y viendo si la red puede reconocerlos como ya conocidos. Sin embargo, en las redes de Hopfield clásicas, las neuronas del modelo se conectan recíprocamente con otras neuronas de la red para formar una serie de lo que se denomina conexiones «pareadas».
Las conexiones emparejadas representan cómo dos neuronas se conectan en una sinapsis, un punto de conexión entre dos neuronas en el cerebro. Pero en realidad, las neuronas tienen estructuras ramificadas intrincadas llamadas dendritas que proporcionan múltiples puntos de conexión, por lo que el cerebro depende de una disposición mucho más compleja de sinapsis para realizar sus trabajos cognitivos. Además, las conexiones entre neuronas están moduladas por otro tipo de células llamadas astrocitos.
“Simplemente no es realista que solo haya conexiones emparejadas entre las neuronas en el cerebro”, explica el Sr. Quemaduras. Creó una red de Hopfield modificada en la que no solo se podían conectar pares de neuronas, sino también conjuntos de tres, cuatro o más neuronas, como puede ocurrir en el cerebro a través de astrocitos y árboles dendríticos.
Aunque la nueva red permitía las llamadas conexiones «establecidas», en general contenía el mismo número total de conexiones que antes. Los investigadores descubrieron que una red que contenía una combinación de conexiones de pares y de grupo funcionaba mejor y retenía la mayoría de los recuerdos. Estiman que funciona más del doble que una red Hopfield tradicional. “Resulta que realmente necesitas una combinación de características en algún equilibrio”, dice el Sr. Quemaduras. «Deberías tener sinapsis individuales, pero también deberías tener algunos árboles dendríticos y algunos astrocitos».
Las redes de Hopfield son importantes para modelar procesos cerebrales, pero también tienen otros usos poderosos. Por ejemplo, tipos de redes muy similares llamados Transformers son la base de herramientas de lenguaje basadas en IA como ChatGPT, por lo que las mejoras que identificaron Burns y el profesor Fukai también podrían hacer que estas herramientas sean más sólidas.
Burns y sus colegas planean continuar trabajando con sus redes Hopfield modificadas para hacerlas aún más poderosas. Por ejemplo, en el cerebro, la fuerza de las conexiones entre las neuronas normalmente no es la misma en ambas direcciones, por lo que el Sr. Burns se pregunta si esta función de asimetría también puede mejorar el rendimiento de la red. Además, le gustaría explorar formas de hacer que las memorias de la red interactúen entre sí, como lo hacen en el cerebro humano. “Nuestras memorias son multifacéticas y vastas”, dice el Sr. Quemaduras. “Todavía tenemos mucho por descubrir”.
Referencia: «Hopfield Simplicial Networks» de Thomas F Burns y Tomoki Fukai, 1 de febrero de 2023, Conferencia internacional sobre representaciones del aprendizaje.