La interdependencia exitosa entre neurociencias e inteligencia artificial

19 marzo 2025
Las sinergias entre la IA y los estudios del cerebro son tan fuertes que cada avance en uno de estos campos genera un salto significativo en el otro (img.: iStock).

La inteligencia artificial (IA) se basa en redes neuronales artificiales, cuyo desarrollo se inspira en la estructura y el funcionamiento del cerebro humano. Simétricamente, el desarrollo de las técnicas de monitorización y control de la actividad cerebral (neurotecnologías) se basa en los avances de la inteligencia artificial. La interdependencia entre ambas disciplinas genera una aceleración mutua, con resultados impredecibles en el medio plazo y algunos riesgos para la actividad creativa humana.

Convergencias y sinergias

En la reciente edición del MWC25, celebrado hace pocas semanas en Barcelona, una de las presentaciones más sorprendentes, por disruptiva, fue la del primer ordenador biológico comercial. Ya se conocían algunos prototipos, pero este de Cortical Labs llamado CL1 es el primer dispositivo basado en una simbiosis entre lo natural y lo artificial que vemos en el mercado.

El relato del fabricante no abunda en detalles sobre esa simbiosis. Sostiene que las neuronas reales se cultivan en una solución rica en nutrientes, y crecen sobre un chip de silicio que envía y recibe impulsos eléctricos hacia la estructura neuronal. El resultado, sigue el relato del fabricante, son redes neuronales orgánicas programables que viven dentro de un mundo digital, esto es, neuronas reales que interactúan con el software en tiempo real en un sistema de circuito cerrado sobre un chip de silicio.

La descripción me recuerda a esas ecosferas autosuficientes que nos sirven en la escuela para ilustrar los ecosistemas, en las que se introducen pequeñas gambas y plantas acuáticas en un entorno cuidadosamente equilibrado para que el oxígeno liberado por la fotosíntesis permita la supervivencia en este sistema cerrado. En la práctica, el sistema suele acabar por desequilibrarse más pronto que tarde y sobreviene la catástrofe, para disgusto del docente y de su alumnado. Ignoro si en el caso del ordenador biológico pasará algo parecido, porque el fabricante señala que “un entorno robusto mantiene las neuronas activas hasta seis meses”, pero no aclara qué ocurre después.

Soluciones como esta, que combinan las neuronas biológicas con las redes neuronales artificiales de la IA, son un caso extremo de la convergencia entre los mundos de la neurociencia y de la IA.

La inspiración biológica de la IA

La relación entre estos los dos mundos -IA y neurociencias- se remonta a la década de los cuarenta del siglo pasado. En 1943, los norteamericanos Warren McCulloch y Walter Pitts propusieron el primer modelo matemático de la llamada neurona artificial, que utilizaba unidades binarias (encendido/apagado) y establecieron las bases teóricas del cálculo lógico que podrían llevar a cabo las redes formadas por estas neuronas. Años después, en 1957, el también norteamericano Frank Rosenblatt desarrolló el perceptrón, una red neuronal simple de una sola capa que podía aprender a clasificar patrones y, aunque tenía bastantes limitaciones, despertó muchas expectativas. En las tres décadas siguientes aparecieron los modelos de redes multicapa, más parecidos a los actuales, pero hubo que esperar a disponer de tecnologías para el manejo de grandes volúmenes de datos, hacia 2012, para que se produjera la explosión en el campo de la IA, tal y como hoy la conocemos.

En síntesis, las neuronas artificiales son unidades de cálculo diseñadas para imitar, de manera simplificada, el comportamiento de una neurona biológica. Se organizan en capas: una de entrada, una o más capas ocultas y una capa de salida. Cada neurona artificial recibe señales, las procesa mediante una función matemática (normalmente una función de activación) y transmite el resultado a otras neuronas de la siguiente capa. Estas neuronas artificiales son los componentes básicos de las redes neuronales artificiales, utilizadas en muchos campos de la IA para procesar información y resolver problemas complejos.

La estructura y funcionamiento de las redes neuronales artificiales se inspiran en el cerebro, pero son mucho más simples que un sistema nervioso biológico, donde existen muchos tipos de neuronas diferentes que no solo se comunican mediante señales eléctricas, sino también a través de neurotransmisores y de procesos bioquímicos complejos, que no tienen reflejo directo en las redes artificiales.

Aunque la nomenclatura guarde similitud, las redes neuronales naturales son mucho más complejas que las artificiales

Similitudes y diferencias en el proceso de aprendizaje

La base teórica del aprendizaje en ambos tipos de redes neuronales también se remonta a los años cuarenta del siglo pasado. El modelo vino de la mano de un psicólogo canadiense con vocación de educador, Donald O. Hebb, considerado el padre de la neuropsicología y de las redes neuronales. Hebb trataba de describir el comportamiento y los procesos cognitivos en términos de conexiones entre conjuntos de neuronas que se “disparaban” simultáneamente. En su obra “The Organization of Behavior“, de 1949, formuló la idea de que las conexiones sinápticas entre neuronas se fortalecían con la actividad simultánea, una regla que explica, por ejemplo, la importancia de la práctica repetida para la consolidación de la memoria a largo plazo. Pero la llamada “regla hebbiana” -las neuronas que disparan juntas, se conectan juntas- fue adoptada por los desarrolladores de la IA y se convirtió en la base fundamental del aprendizaje en redes neuronales artificiales.

Aunque existen grandes diferencias entre las redes naturales y las artificiales, hay algunos elementos comunes en la forma en que procesan la información. Es el caso del aprendizaje que, en ambos tipos de redes, implica la continua adaptación de las conexiones entre las neuronas. En las redes neuronales naturales, la intensidad de la comunicación entre neuronas está determinada por la fuerza de las sinapsis, que puede aumentar o disminuir en respuesta a la experiencia. En el caso de las redes neuronales artificiales, esta idea se replica mediante algoritmos que ajustan los pesos de las conexiones entre neuronas durante el proceso de entrenamiento de la red para optimizar su rendimiento.

El aprendizaje implica la continua adaptación de las conexiones entre las neuronas, tanto las artificiales como las biológicas

Pero fuera de este proceso de ajuste adaptativo de las conexiones neuronales, el proceso de aprendizaje en sí es muy diferente en las redes neuronales naturales y artificiales. En las primeras, el aprendizaje es un proceso continuo y sorprendentemente eficiente, especialmente en las relaciones causales, que son fundamentales para predecir el futuro y asegurar la supervivencia de la especie. Rafael Yuste explica (El cerebro, el teatro del mundo, p. 148) que a veces aprendemos las relaciones causa y efecto de inmediato, sin olvidarlas a lo largo de la vida. Por ejemplo, si metemos un dedo en un enchufe y nos da un calambre, lo recordaremos siempre. Por el contrario, las redes neuronales artificiales aprenden por ensayo y error, y necesitan un entrenamiento intenso para captar las propiedades estadísticas del mundo y las relaciones causales entre las cosas.

Lo que un niño aprende por interacción con el mundo en sus primeros años de vida requeriría de un costosísimo entrenamiento a un sistema artificial, mediante ensayo y error. Como dice Yuste, las máquinas necesitan recibir muchos más calambres que nosotros para aprender.

Las redes neuronales artificiales aprenden de manera más rápida y explícita, mediante el ajuste de los pesos de las conexiones entre neuronas basándose en un conjunto de datos de entrenamiento predefinido, pero son mucho más limitadas en su capacidad para adaptarse de forma autónoma a nuevas situaciones fuera de su entrenamiento. Por el contrario, las redes neuronales naturales son mucho más flexibles y capaces de generalizar en entornos cambiantes. A medida que los humanos interactúan con su entorno, el cerebro puede adaptarse y reorganizarse, un fenómeno conocido como neuroplasticidad.

Las redes neuronales naturales son mucho más flexibles y capaces de generalizar en entornos cambiantes

Las diferencias en la adquisición del lenguaje son abismales. Mientras que los niños aprenden el lenguaje mediante la interacción social, la imitación y la experiencia directa en contextos reales, integrando emociones y significados, los sistemas de IA deben ser entrenados trabajosamente bajo supervisión humana analizando grandes volúmenes de texto y datos para identificar patrones estadísticos, sin pretender que comprendan el contexto o los significados detrás de las palabras. Por ejemplo, se parte de miles de millones de frases de un idioma en las que se omite una palabra y se pide al sistema que busque la parte omitida, hasta acertarla.

La escurridiza legalidad de los datos de entrenamiento

La cantidad de material disponible para el entrenamiento es un factor limitante de los sistemas de IA. De hecho, aunque los modelos de lenguaje ya existían desde hace décadas, los modelos de lenguaje extenso que emulan el lenguaje humano (Large Language Models, en inglés) son mucho más recientes porque se necesitaban grandes volúmenes de datos digitalizados para alimentar el aprendizaje y porque la potencia de los ordenadores era insuficiente para entrenar modelos complejos.

La base teórica de estos modelos de lenguaje extenso se publicó en 2017 –Attention is All You Need“-, y en los años posteriores ha ido concretándose en numerosos modelos comerciales como GPT-1, OpenAI (2018); BERT, Google (2018); DALL-E, OpenAI (2021);  Stable Diffusion, Stability AI (2022); GPT-3.5, base de ChatGPT (2022), LLaMA, Meta (2023); GPT-4, OpenAI (2023), etcétera. Todos estos modelos han sido entrenados con enormes volúmenes de texto o imágenes y utilizan técnicas de aprendizaje profundo para procesar la información, de forma coherente y contextualizada.

La pregunta inmediata es de dónde proceden esos grandes volúmenes de información empleados en el entrenamiento de un modelo de IA. En un artículo anterior sosteníamos que proceden, básicamente, de toda obra artística, literaria e informativa disponible en Internet, es decir, resultan de la apropiación, no siempre autorizada, del trabajo creativo de escritores, docentes, artistas, periodistas, académicos que sea accesible a través de la web. El propio Sam Altman, fundador de OpenAI, la empresa que lanzó ChatGPT, reconoció en un escrito dirigido al parlamento del Reino Unido que “sería imposible entrenar los modelos actuales de IA sin material con derechos de autor”. Además, las aportaciones se remezclan en la caja negra del sistema sin posibilidad de rastrear a sus creadores, de forma que se diluyen las fuentes y desaparecen la autoría, los derechos y la singularidad de las aportaciones. 

“Sería imposible entrenar los modelos actuales de IA sin material con derechos de autor”

Este mal uso de la inteligencia artificial suscita la lógica oposición de los creadores, que se ven amenazados por unos sistemas que pueden haber sido entrenados con sus propias creaciones. Por ello han ido sucediéndose las denuncias por parte de actores, escritores, artistas plásticos, así como de empresas de prensa y discográficas, a los desarrolladores de sistemas de IA por vulneración de los derechos de propiedad intelectual.

Las empresas de IA suelen alegar en su defensa la cláusula de uso justo (fair use) de la legislación norteamericana, que permite el uso parcial de obras protegidas, sin permiso de su titular, para ciertas finalidades, como la crítica, el comentario, la actividad docente o la investigación, siempre que el resultado no suponga un perjuicio económico para el propietario de los derechos.

Esta es la principal base del argumento que esgrime OpenAI en una propuesta enviada este mes de marzo a la Office of Science and Technology Policy estadounidense, en la que solicita explícitamente a la Administración Trump que libere a las empresas de IA norteamericanas de las limitaciones del copyright, para poder entrenar sus modelos de IA sin trabas legales. El otro argumento que utiliza para que no se apliquen limitaciones por derechos es evitar que los laboratorios de IA estadounidenses estén en desventaja frente a China, nación que, según el documento, es “poco probable que respete los regímenes de propiedad intelectual para el entrenamiento de sus sistemas de IA.”

El documento reconoce que “Estados Unidos tiene tantas nuevas empresas de IA, atrae tanta inversión y ha logrado tantos avances en investigación en gran parte porque la doctrina del uso justo promueve el desarrollo de la IA. En otros mercados, las rígidas normas de derecho de autor están reprimiendo la innovación y la inversión.”

No se puede desvincular el contenido de los seres humanos que producen ese contenido

Desde el punto de vista ético es difícilmente sostenible el argumento de que un sistema de IA que utiliza sin permiso obras originales para entrenarse y generar obras derivadas a partir de ellas, no afecta a los derechos de las obras originales porque las derivadas no son idénticas a ellas. Tampoco ayuda a poner en valor el trabajo creativo y cultural, ni a respetar el derecho de escritores, poetas o artistas a poder vivir de su propio esfuerzo creativo. No se puede desvincular el contenido propiamente dicho de los seres humanos que producen ese contenido,

Una clave relevante para abordar este desaguisado nos la da el informe de la UNESCO Generative AI and the future of education, que propone preguntarse si la IA y otras tecnologías digitales ayudan a diversificar nuestros sistemas de conocimiento o si, en realidad, actúan en la dirección opuesta, e insiste en la necesidad de salvaguardar la diversidad de nuestros sistemas de conocimiento y de desarrollar tecnologías de IA que ayuden a preservar y a ampliar dicha diversidad: “No podemos permitir –advierte el informe– que nuestros variados sistemas de producción de conocimiento se atrofien, y debemos cuidarnos de desvincular la creación de conocimiento de los seres humanos.”