¿Qué es la neurociencia según Piaget?

Historia de la Ciencia Cognitiva: Parte I

Valoración: 4.07 (5558 votos)

La ciencia cognitiva se ha consolidado como uno de los enfoques más relevantes para comprender la mente a finales del siglo XX y principios del XXI. Sus conceptos fundamentales, la manera en que plantea los problemas y las soluciones que propone han evolucionado significativamente en relativamente poco tiempo. Para adentrarnos en este fascinante campo, podemos trazar su historia, observando cómo las ideas surgieron y se influyeron mutuamente, dando forma a los paradigmas actuales.

¿Qué hace la neurociencia cognitiva?
La neurociencia cognitiva es un campo científico que estudia cómo el cerebro recibe, integra y procesa la información. Analiza de manera científica los procesos mentales relacionados con toda la estructura del sistema nervioso.Feb 18, 2022

Aunque a menudo se habla de 'ciencia cognitiva' en singular, es más preciso considerarla un campo multidisciplinario. No es una disciplina única, sino una amalgama de áreas provenientes de diversas ciencias, como la neurociencia, la inteligencia artificial, la psicología cognitiva, la filosofía de la mente, la lingüística y la antropología. Cada una aporta su perspectiva y herramientas para abordar el complejo fenómeno de la cognición.

Tradicionalmente, la psicología cognitiva se ha enfocado en el estudio de los fenómenos mentales, poniendo especial énfasis en los mecanismos de procesamiento de información. Desde la percepción, la memoria y el aprendizaje, hasta procesos más complejos como la toma de decisiones, la planificación y la generación de la conducta, todos son objeto de su estudio. Sin embargo, esta concepción, muy ligada a las primeras etapas de la ciencia cognitiva, sería posteriormente desafiada por nuevas perspectivas.

Índice de Contenido

Los Inicios: Cibernética y el Nacimiento de la Computación

El camino hacia la ciencia cognitiva moderna comenzó a pavimentarse en el período de 1940 a 1955, una era a menudo asociada con la cibernética. Durante estos años, se desarrollaron herramientas y teorías que serían cruciales para lo que vendría después. La construcción de las primeras computadoras modernas sentó las bases para el campo de la inteligencia artificial. Paralelamente, surgieron ideas sobre sistemas autoorganizados, la teoría general de los sistemas y, fundamentalmente, la teoría de la información. Esta última ofreció un nuevo marco para pensar en la comunicación y las señales.

Estas innovaciones conceptuales y tecnológicas llevaron a dos ideas centrales. Primero, la noción de que las neuronas, los componentes básicos del cerebro, podían ser entendidas como dispositivos que se activan o desactivan y se conectan entre sí para realizar operaciones lógicas. Esto transformó la visión del cerebro, viéndolo como una suerte de 'máquina lógica'. Segundo, se materializó una antigua aspiración filosófica, como la de Leibniz, de convertir el razonamiento en un tipo de cálculo.

Originalmente, el término 'computador' se refería a una persona que realizaba cálculos. Con la invención de máquinas capaces de automatizar esta tarea, el nombre se transfirió a ellas. Estas máquinas seguían un 'algoritmo', una serie de instrucciones o reglas bien definidas. Pronto quedó claro que su capacidad iba más allá de los cálculos matemáticos; podían manipular símbolos o representaciones simbólicas siguiendo algoritmos. Aunque la máquina no 'entendía' el significado de los símbolos, operaba sobre su forma (operaciones formales), demostrando una capacidad para realizar tareas que parecían requerir inteligencia.

La información, en este contexto, se consideraba aquello con lo que se alimentaba la máquina, que luego procesaba para producir un resultado. De ahí nació el concepto de 'procesamiento de información'.

Un hito fundamental fue la pregunta de Alan Turing en 1950: ¿Pueden pensar las máquinas? Para abordarla, propuso el famoso Test de Turing. En este experimento, una persona interactuaba por escrito con dos interlocutores ocultos, uno humano y otro una máquina. Si el interrogador no podía distinguir consistentemente cuál era la máquina, se consideraba que esta había pasado la prueba, un criterio inicial de inteligencia artificial.

El Test de Turing también subrayó una idea crucial: los materiales de los que está hecha la máquina son irrelevantes para entender su comportamiento; lo esencial es el programa que ejecuta. Un mismo programa puede correr en hardware diferente, y un mismo hardware puede ejecutar programas distintos. Esto, aplicado a la mente, sugirió que el estudio de la inteligencia debía centrarse en el 'software' o programa, más que en el 'hardware' o cerebro físico. El foco de interés se desplazó de la anatomía y fisiología cerebral a los procesos equivalentes a los programas que se ejecutarían en él.

En el panorama psicológico de la primera mitad del siglo XX, el conductismo, especialmente en su versión más radical, había intentado eliminar lo mental de la psicología. La mente se consideraba un mito innecesario para explicar la conducta, que se veía como una respuesta mecánica a estímulos externos. Sin embargo, esta postura radical encontró dificultades para explicar conductas complejas y fue evolucionando hacia un conductismo mediador, que permitía postular variables internas entre el estímulo y la respuesta. Aunque se abría la puerta a los procesos internos, faltaba un lenguaje adecuado para describirlos. La llegada del procesamiento de información proporcionó ese lenguaje: el estímulo se convirtió en 'input', la respuesta en 'output', y los procesos internos en 'procesamiento de información'.

Segunda Etapa: El Modelo Cognitivo Clásico (El Simbolismo)

El año 1956 es considerado el punto de partida del modelo cognitivista clásico, también conocido como modelo simbolista, representacionalista o de procesamiento secuencial. En ese año, figuras de campos tan diversos como la informática (Newell), la psicología (Miller), la inteligencia artificial (Minsky, McCarthy), la economía (Simon) y la lingüística (Chomsky) convergieron en la idea de que la inteligencia humana, al igual que la de un computador, se basa en principios de procesamiento de información.

Un evento clave fue el simposio sobre teoría de la información en el MIT, donde Newell y Simon presentaron su 'Máquina de la Teoría Lógica' (el primer teorema demostrado por un computador), Chomsky introdujo su modelo de gramática generativa-transformacional, y Miller discutió los límites de la memoria a corto plazo en términos de fragmentos de información ('chunks').

La conclusión general fue que todos los sistemas que procesan información, ya sean biológicos como los humanos o artificiales como las computadoras, comparten principios básicos. Esto llevó a Herbert Simon a proponer la ciencia cognitiva como un campo de estudio unificado. La premisa central era que cualquier tarea inteligente, por compleja que fuera, podía descomponerse en operaciones simples y mecánicas. La analogía del computador se fortaleció: la mente era vista como el software que corre sobre el hardware del cerebro. Teóricamente, para entender la mente, bastaba con estudiar sus programas (los algoritmos y reglas de procesamiento), sin necesidad de centrarse en el cerebro físico.

El cognitivismo clásico postula que la cognición es un proceso computacional que opera sobre símbolos o representaciones internas. Los estados mentales se consideran representaciones simbólicas de objetos y situaciones del mundo externo. Los procesos cognitivos manipulan y transforman estos símbolos según reglas lógicas, produciendo nuevos estados mentales o acciones. Debido a la centralidad de los símbolos y las representaciones, este modelo es también llamado simbolista o representacionalista.

Esta visión representacionalista dominó la ciencia y la filosofía hasta la década de 1970. Partía de la idea de un mundo externo objetivo que puede ser conocido por un sujeto a través de las representaciones que se forma de él. La percepción visual es un ejemplo clásico: se cree que al ver el mundo, formamos internamente una imagen que lo representa, como una cámara fotográfica. En el pensamiento, las representaciones serían símbolos mentales, quizás similares al lenguaje.

La 'arquitectura computacional' de este modelo es típicamente secuencial: las operaciones se realizan una tras otra. Un ejemplo simplificado es el modelo clásico del procesamiento del lenguaje, donde la información fluye de forma lineal: de la corteza auditiva (identificación de sonidos) al área de Wernicke (descodificación de palabras), luego a áreas de asociación (significado), de vuelta a Wernicke, y finalmente al área de Broca (programación fonética) y la corteza motora (articulación). En cada paso, los símbolos lingüísticos sufren transformaciones formales según reglas, aunque se asume que el significado (semántica) se preserva.

Considerar la mente como software que opera sobre símbolos internos ofrece una explicación de la acción que es lineal y cercana al sentido común: un deseo (estado mental) y una creencia (estado mental) llevan a una acción. Sin embargo, un problema crucial para este modelo es cómo el procesamiento sintáctico (manipulación de símbolos por reglas) se relaciona con el contenido semántico (el significado de los símbolos). Un computador opera con la forma, no con el significado. ¿Cómo sabe el sistema que los símbolos '6', '/', '3' y '2' en una división se refieren a 'naranjas' y 'niños' en un contexto práctico?

Para que los símbolos internos tengan significado, deben ser interpretados por algo o alguien. Esto lleva a la necesidad de postular un 'consumidor' interno, un homúnculo o 'fantasma en la máquina' que 'lea' y entienda las representaciones. Además, se necesitaría un 'teatro cartesiano' interno donde estas representaciones se presenten para ser 'vistas' por el homúnculo. Esto, sin embargo, conduce a una regresión infinita, ya que el homúnculo a su vez necesitaría su propio teatro y homúnculo interno para procesar sus representaciones. Este es el problema del 'symbol grounding' (arraigo de símbolos) y el argumento del homúnculo, críticas importantes al cognitivismo clásico.

A pesar de estas críticas, el cognitivismo clásico no desapareció; sigue siendo muy influyente. Marcó la pauta para la psicología cognitiva moderna, introdujo principios explicativos clave y consolidó el procesamiento de información como marco para entender la conducta. Las etapas posteriores no la reemplazaron, sino que ofrecieron visiones complementarias o alternativas.

Tercera Etapa: El Conexionismo (Redes Neuronales)

A finales de la década de 1970 surgió un nuevo paradigma: el conexionismo, también conocido como procesamiento distribuido en paralelo o modelo de redes neuronales. Este enfoque nació, en parte, de las críticas a la plausibilidad biológica del cognitivismo clásico.

Una crítica importante era la naturaleza secuencial y localizada del procesamiento clásico. Tareas complejas como el reconocimiento visual requieren una velocidad que parece incompatible con un procesamiento paso a paso y serial. Además, el daño localizado en un sistema secuencial puede ser catastrófico (como una carretera bloqueada), mientras que la mente humana a menudo muestra resistencia al daño, con habilidades que se degradan parcialmente en lugar de perderse por completo.

Otra crítica implícita era la rigidez de los sistemas basados en reglas explícitas. Aunque los sistemas clásicos podían aprender, la creatividad y la flexibilidad del pensamiento humano parecían difíciles de explicar únicamente mediante la manipulación de símbolos predefinidos.

El modelo conexionista propone una arquitectura computacional diferente, más cercana a la estructura del cerebro. En lugar de unidades que manipulan símbolos, consiste en un gran número de unidades simples (similares a neuronas) interconectadas. La información no se procesa mediante la transformación de símbolos discretos y localizados, sino a través de patrones de activación y desactivación distribuidos a lo largo de la red y la transmisión de señales entre las unidades a través de conexiones con diferentes 'pesos' o fuerzas.

Una red conexionista básica incluye: unidades de entrada (reciben información), unidades ocultas (procesan la información) y unidades de salida (producen el resultado). Las conexiones entre estas unidades pueden ser excitatorias o inhibitorias, y su fuerza (peso) determina la influencia de una unidad sobre otra. Crucialmente, estas redes pueden aprender. Mediante algoritmos de aprendizaje (como variantes de la regla de Hebb o reglas de corrección de errores), los pesos de las conexiones se ajustan en función de la experiencia (ejemplos de entrada y salida esperada). La red no necesita reglas explícitas programadas para cada tarea; aprende a realizarla ajustando la fuerza de sus conexiones.

Un ejemplo famoso es NETtalk, una red conexionista programada para leer texto en inglés. Se le presentaban pares de texto y su pronunciación correcta. Al principio, su 'habla' era ininteligible, pero al ajustar los pesos de sus conexiones a través de miles de ejemplos, aprendió a pronunciar palabras correctamente, incluso generando estrategias no explícitamente programadas por su creador. La información de la palabra impresa se transforma en un patrón distribuido de activación en las unidades, no en un símbolo que se mueve linealmente.

El conexionismo es particularmente bueno para explicar tareas como el reconocimiento de patrones (caras, objetos, palabras a partir de letras) y la memoria asociativa. Si se le presenta una parte de un patrón previamente 'aprendido', la red puede 'reconstruir' o activar el patrón completo, permitiendo un reconocimiento rápido y robusto.

A diferencia del modelo clásico, en el conexionismo los símbolos o representaciones discretas y localizadas no son el elemento fundamental. La información está distribuida a lo largo de la red en los patrones de conexión y activación. Esto lo hace más plausible biológicamente, explicando la rapidez de ciertos procesos cognitivos y la resistencia al daño (un daño localizado afecta algunas conexiones o unidades, pero la información distribuida a menudo permite que la red siga funcionando, aunque con menor precisión).

Desde finales de los años ochenta, el conexionismo ha ganado terreno, ofreciendo explicaciones convincentes para fenómenos como el acceso rápido a la memoria, las características de las amnesias, aspectos de la percepción y el aprendizaje del lenguaje sin necesidad de postular reglas sintácticas innatas explícitas. La 'simulación conexionista' se ha convertido en una herramienta valiosa para explorar funciones cerebrales.

Comparando los Modelos: Clásico vs. Conexionista

Aunque diferentes, el cognitivismo clásico y el conexionismo comparten la base de que el funcionamiento mental implica procesos computacionales. El primero utiliza una arquitectura secuencial que manipula símbolos, mientras que el segundo emplea una arquitectura paralela distribuida que trabaja con patrones de activación.

Podemos resumir sus diferencias principales:

CaracterísticaCognitivismo ClásicoConexionismo
ArquitecturaSecuencial, serialParalela, distribuida
Unidad básicaSímbolos, representacionesUnidades interconectadas (tipo neurona)
ProcesamientoManipulación de símbolos por reglas (sintaxis)Propagación de activación a través de conexiones ponderadas
Almacenamiento de informaciónLocalizado (símbolos discretos)Distribuido (patrones de conexión y activación)
Ejemplo prototipoRazonamiento abstracto, lógicaReconocimiento de patrones, memoria asociativa, aprendizaje perceptivo
Plausibilidad biológicaMenor (procesamiento serial, localizado)Mayor (procesamiento paralelo, distribuido, aprendizaje por ajuste de pesos)
Concepto de representaciónCentral (símbolos discretos que representan el mundo)Emergente (patrones de activación pueden ser interpretados como representaciones)
Resistencia al dañoBaja (si se daña una unidad o conexión clave)Alta (la información está distribuida)

Estos dos modelos no son mutuamente excluyentes. Muchos investigadores creen que ambos describen aspectos válidos del funcionamiento cerebral, quizás aplicables a diferentes tipos de tareas o funcionando de manera cooperativa. Algunos incluso proponen que la mente humana podría ser una 'máquina virtual' secuencial implementada sobre un hardware masivamente paralelo, como el cerebro.

Preguntas Frecuentes sobre los Modelos Cognitivos

¿La mente humana es literalmente un computador?
La analogía del computador fue fundamental para el desarrollo de la ciencia cognitiva, especialmente en el modelo clásico. Sin embargo, es una metáfora o analogía, no una identidad literal. El cerebro y la mente tienen características que van más allá de lo que los modelos computacionales iniciales podían capturar, como la conciencia, las emociones, la intencionalidad y la relación directa con un cuerpo y un entorno. Los modelos computacionales son herramientas para entender ciertos aspectos del procesamiento de información, no una descripción completa de la mente.
¿Qué es el problema del homúnculo?
Es una crítica al modelo representacionalista clásico. Si los estados mentales son representaciones internas (como imágenes o símbolos), ¿quién las 'lee' o 'interpreta'? Postular un agente interno (un 'hombre pequeño' o homúnculo) que interpreta estas representaciones solo mueve el problema, ya que ese homúnculo necesitaría sus propias representaciones internas y un homúnculo dentro de él para interpretarlas, llevando a una regresión infinita. Esto sugiere que la explicación no es completa.
¿Cómo 'aprenden' las redes neuronales conexionistas?
Aprenden ajustando la fuerza (pesos) de las conexiones entre sus unidades. Se les presenta una entrada (por ejemplo, una imagen) y se compara su salida con la salida deseada. Si hay un error, se utilizan algoritmos (como el de retropropagación del error) para modificar los pesos de las conexiones de manera que la próxima vez la salida sea más cercana a la correcta. Con muchos ejemplos, la red 'aprende' a mapear entradas a salidas sin necesidad de reglas explícitas programadas.
¿El conexionismo reemplazó al cognitivismo clásico?
No, ambos modelos coexisten y son utilizados en la investigación cognitiva. Cada uno parece más adecuado para explicar diferentes tipos de procesos cognitivos. El cognitivismo clásico sigue siendo útil para modelar procesos lógicos, basados en reglas y secuenciales (como ciertas formas de razonamiento o resolución de problemas abstractos), mientras que el conexionismo es mejor para tareas perceptivas, de memoria asociativa y aprendizaje que implican reconocer patrones y manejar información ruidosa o incompleta.

La historia de la ciencia cognitiva es un relato de cómo hemos refinado nuestra comprensión de la mente, pasando de analogías mecánicas a modelos computacionales cada vez más sofisticados. Las primeras etapas, marcadas por la computación y el procesamiento de información, sentaron las bases para una nueva forma de estudiar lo mental. Aunque enfrentaron críticas, especialmente en lo relativo a la representación y el significado, dieron paso a modelos alternativos como el conexionismo, que ofrecieron nuevas perspectivas basadas en arquitecturas más distribuidas y biológicamente plausibles. Estas etapas, lejos de anularse, se complementan, ofreciendo diferentes lentes a través de los cuales examinar la asombrosa complejidad de la cognición. Esta primera parte del desarrollo conceptual de la ciencia cognitiva nos muestra la evolución desde la idea de la mente como máquina lógica hasta la de la mente como procesador de información, sentando las bases para exploraciones futuras sobre cómo el cuerpo y el entorno interactúan con estos procesos.

Si quieres conocer otros artículos parecidos a Historia de la Ciencia Cognitiva: Parte I puedes visitar la categoría Cognicion.

Foto del avatar

Jesús Porta Etessam

Soy licenciado en Medicina y Cirugía y Doctor en Neurociencias por la Universidad Complutense de Madrid. Me formé como especialista en Neurología realizando la residencia en el Hospital 12 de Octubre bajo la dirección de Alberto Portera y Alfonso Vallejo, donde también ejercí como adjunto durante seis años y fui tutor de residentes. Durante mi formación, realicé una rotación electiva en el Memorial Sloan Kettering Cancer Center.Posteriormente, fui Jefe de Sección en el Hospital Clínico San Carlos de Madrid y actualmente soy jefe de servicio de Neurología en el Hospital Universitario Fundación Jiménez Díaz. Tengo el honor de ser presidente de la Sociedad Española de Neurología, además de haber ocupado la vicepresidencia del Consejo Español del Cerebro y de ser Fellow de la European Academy of Neurology.A lo largo de mi trayectoria, he formado parte de la junta directiva de la Sociedad Española de Neurología como vocal de comunicación, relaciones internacionales, director de cultura y vicepresidente de relaciones institucionales. También dirigí la Fundación del Cerebro.Impulsé la creación del grupo de neurooftalmología de la SEN y he formado parte de las juntas de los grupos de cefalea y neurooftalmología. Además, he sido profesor de Neurología en la Universidad Complutense de Madrid durante más de 16 años.

Subir