La abstracción es un proceso cognitivo fundamental que nos permite comprender el mundo que nos rodea de una manera eficiente y flexible. Consiste en la capacidad de aislar y reconocer características o relaciones comunes que se observan en diferentes objetos, situaciones o experiencias. No solo es una herramienta intelectual, sino que se considera esencial para funciones cognitivas superiores como la formación de juicios, el aprendizaje a partir de la experiencia y la realización de inferencias. Pero, ¿cómo emerge esta capacidad en el cerebro? ¿Cómo se construyen estas representaciones abstractas a nivel neuronal?
La abstracción se diferencia de lo concreto en que, mientras lo concreto se refiere a una cosa particular (como la Primera Guerra Mundial o una moneda específica), lo abstracto se refiere a una clase, tipo o característica general bajo la cual caen esas instancias particulares (como la guerra en general o la circularidad). En un sentido más amplio, lo abstracto a menudo se asocia con entidades que no están ligadas a un lugar o tiempo específicos, como números, propiedades o conjuntos.

- Representaciones Abstractas en el Cerebro
- El Modelo de Multi-tareas: Una Herramienta para Estudiar la Abstracción
- Métricas de Abstracción: Midiendo la Generalización
- El Poder de las Multi-tareas para Generar Abstracción
- La Relevancia de las Tareas: ¿Cuándo Emerge la Abstracción?
- Abstracción a Partir de Entradas y Tareas Diversas
- Abstracción con Imágenes: Un Caso Realista
- Aprendizaje por Refuerzo y Abstracción
- Conclusión
- Preguntas Frecuentes (FAQ)
Representaciones Abstractas en el Cerebro
En el contexto de la neurociencia y las redes neuronales, las representaciones abstractas se refieren a la forma en que la actividad neuronal codifica información sobre las estructuras latentes o variables subyacentes en el entorno sensorial. Estas representaciones permiten que el conocimiento se generalice a través de diferentes contextos.
Consideremos el ejemplo de las bayas. Las características de diferentes tipos de bayas pueden describirse mediante variables latentes continuas, como el color y la forma. Una representación abstracta de estas variables significaría que la red neuronal codifica el color y la forma de manera que, si aprendemos que las bayas rojas son comestibles, este conocimiento pueda aplicarse a bayas rojas de diferentes formas. Por el contrario, una representación no abstracta podría depender de combinaciones específicas de color y forma (por ejemplo, una neurona que solo responde a bayas rojas y redondas), lo que dificultaría la generalización a otras formas de bayas rojas.
Una representación abstracta ideal de estas variables latentes podría ser una representación lineal y de baja dimensión en el espacio de actividad neuronal. Esto contrasta con una representación no abstracta, que podría ser de mayor dimensión, estar distorsionada o depender de la activación conjunta de neuronas sintonizadas a características específicas. La clave de una representación abstracta es que permite que un clasificador o decodificador entrenado en una parte del espacio de características (por ejemplo, bayas de una forma particular) funcione correctamente en otra parte del espacio (bayas de otra forma) sin necesidad de reentrenamiento.
El Modelo de Multi-tareas: Una Herramienta para Estudiar la Abstracción
Para investigar cómo emergen estas representaciones abstractas, se ha propuesto un modelo de redes neuronales de alimentación hacia adelante entrenado para realizar múltiples tareas. Este modelo, denominado Modelo de Multi-tareas, recibe como entrada representaciones inicialmente no abstractas de variables latentes.
El proceso comienza con la construcción de una representación de entrada que sea intencionadamente no abstracta, dispersa y de alta dimensión. Esto simula un procesamiento sensorial temprano que codifica detalles específicos del estímulo de manera compleja y enredada, sin una estructura latente clara y linealmente decodificable.
El Modelo de Multi-tareas toma esta entrada no abstracta y se entrena para realizar un número (P) de tareas de clasificación binaria aleatorias sobre las variables latentes originales. Estas tareas son análogas a las que un animal podría realizar en su entorno, como clasificar bayas como comestibles o venenosas basándose en sus características latentes. El enfoque del estudio se centra en la capa de representación del modelo, la capa que precede a las salidas de las tareas.
Métricas de Abstracción: Midiendo la Generalización
Para cuantificar el nivel de abstracción desarrollado en la capa de representación, se utilizan dos métricas principales:
- Métrica de Generalización del Clasificador: Se entrena un clasificador lineal para realizar una nueva tarea de categorización (no utilizada durante el entrenamiento del modelo principal) utilizando datos de la capa de representación, pero solo de una mitad del espacio de variables latentes. Luego, se prueba el rendimiento de este clasificador en la otra mitad, no vista, del espacio. Un rendimiento superior al azar indica que la representación es al menos parcialmente abstracta, ya que la categoría aprendida en una región se generaliza a otra.
- Métrica de Generalización de la Regresión: De manera similar, se entrena un modelo de regresión lineal para decodificar el valor de una variable latente a partir de la capa de representación, utilizando datos solo de una mitad del espacio. Se prueba la capacidad de decodificación en la otra mitad. Esta métrica es más estricta que la de clasificación y es sensible a desviaciones menores de una representación que sigue fielmente la estructura latente subyacente.
Altos valores en ambas métricas (cercanos al rendimiento que se obtendría entrenando directamente sobre las variables latentes abstractas) indican que el modelo ha aprendido una representación altamente abstracta y generalizable.
El Poder de las Multi-tareas para Generar Abstracción
Los resultados clave de esta investigación revelan que el Modelo de Multi-tareas desarrolla representaciones abstractas de las variables latentes cuando se entrena para realizar un número suficiente de tareas. Específicamente, cuando el número de tareas (P) es igual o mayor que la dimensionalidad de las variables latentes (D), las métricas de generalización alcanzan valores cercanos a su máximo posible. Esto sugiere que la necesidad de resolver múltiples problemas relacionados con la estructura latente impulsa al modelo a reorganizar la información de entrada no abstracta en una forma más organizada y generalizable.
Este hallazgo es robusto a varias manipulaciones, incluyendo cambios en la dimensionalidad de la entrada, la estructura de las tareas (tareas desequilibradas, contextuales o con información parcial) y la arquitectura de la red. La intuición detrás de por qué ocurre esto radica en cómo el algoritmo de aprendizaje (retropropagación) ajusta los pesos de la red. Al optimizar el rendimiento en múltiples tareas, la red se ve incentivada a encontrar una representación intermedia en su capa de representación que capture la estructura compartida relevante para todas las tareas. Si las tareas dependen de las variables latentes, esta estructura compartida converge hacia una representación lineal de esas variables latentes, que es inherentemente abstracta y de baja dimensión (aproximadamente min(P, D) dimensiones).
Además de mejorar la generalización, las representaciones abstractas aprendidas por el Modelo de Multi-tareas también reducen significativamente el número de ejemplos necesarios para aprender y generalizar nuevas tareas, acercando el rendimiento del modelo al que se obtendría si se tuviera acceso directo a las variables latentes perfectas.
La Relevancia de las Tareas: ¿Cuándo Emerge la Abstracción?
Un aspecto crucial que emerge de este estudio es que la abstracción de las variables latentes originales solo se desarrolla cuando las tareas que el modelo debe resolver son relevantes para esa estructura latente. Cuando el modelo es entrenado con tareas altamente no lineales y aleatorias (llamadas tareas de cuadrícula) que no se alinean con las variables latentes subyacentes, no recupera una representación abstracta de esas variables. Esto se debe a que las tareas de cuadrícula tienen poca correlación entre sí, lo que no impulsa la formación de una estructura compartida de baja dimensión basada en las variables latentes.
Sin embargo, el modelo sí aprende representaciones abstractas cuando se entrena con una mezcla de tareas lineales (alineadas con las variables latentes) y tareas de cuadrícula, incluso si las tareas de cuadrícula superan en número a las lineales. Esto sugiere que las tareas relevantes para la estructura latente "guían" la formación de representaciones abstractas, mientras que las tareas no relevantes pueden ser manejadas con componentes no lineales adicionales en la representación.
Abstracción a Partir de Entradas y Tareas Diversas
El estudio también exploró la capacidad del Modelo de Multi-tareas para aprender abstracción a partir de diferentes tipos de entradas no lineales y tareas con distintos niveles de curvatura no lineal. Se utilizaron procesos gaussianos aleatorios para generar entradas y tareas con diferentes 'escalas de longitud', que controlan cuán no lineales y enredadas son las representaciones o los límites de decisión de las tareas.
Los resultados muestran que el modelo puede aprender representaciones abstractas incluso de entradas altamente enredadas y tareas con límites de decisión curvos. Aunque el rendimiento de generalización de la regresión (la métrica más estricta) puede disminuir con entradas o tareas extremadamente no lineales, la generalización de clasificación (que indica una organización más amplia de la estructura latente) se mantiene robusta en una amplia gama de condiciones. Esto demuestra la flexibilidad del mecanismo de multi-tareas para extraer estructura generalizable incluso de datos complejos y tareas no triviales.

Abstracción con Imágenes: Un Caso Realista
Para poner a prueba la relevancia de estos hallazgos en escenarios más cercanos a la percepción visual, se aplicó el Modelo de Multi-tareas a conjuntos de datos de imágenes (sillas con diferentes rotaciones y formas 2D con diferentes posiciones y escalas). Las imágenes en sí mismas, y las representaciones obtenidas de una red pre-entrenada para reconocimiento de objetos (similar a lo que ocurre en la corteza visual ventral del cerebro), son inicialmente no abstractas.
Al entrenar el Modelo de Multi-tareas para realizar tareas de clasificación basadas en las variables latentes (como la rotación de la silla o la escala de la forma), el modelo fue capaz de transformar estas representaciones complejas en representaciones abstractas. Estas representaciones mostraron una fuerte generalización en la clasificación y una generalización de regresión moderada. Además, las representaciones abstractas obtenidas de las imágenes permitieron la generalización a categorías no vistas durante el entrenamiento y demostraron propiedades compositivas, como la capacidad de 'sumar' un vector de 'escala' aprendido a la representación de una forma para generar imágenes de esa forma a diferentes escalas.
Aprendizaje por Refuerzo y Abstracción
Finalmente, el estudio investigó si el mecanismo de multi-tareas para generar abstracción dependía exclusivamente del aprendizaje supervisado. Se entrenó una versión del Modelo de Multi-tareas utilizando aprendizaje por refuerzo (un paradigma de aprendizaje donde un agente aprende a tomar decisiones para maximizar una recompensa, más parecido a cómo aprenden los organismos en entornos dinámicos).
Aunque el aprendizaje de las tareas fue menos consistente que con el aprendizaje supervisado, el modelo entrenado con aprendizaje por refuerzo también logró desarrollar representaciones abstractas y generalizables una vez que un número suficiente de tareas fueron aprendidas. Esto sugiere que la estructura de tener que resolver múltiples tareas relacionadas es un impulsor clave de la abstracción, independientemente del algoritmo de aprendizaje específico utilizado.
Conclusión
La investigación sobre la abstracción cognitiva, particularmente a través de modelos de redes neuronales como el Modelo de Multi-tareas, ofrece información valiosa sobre cómo los sistemas (biológicos o artificiales) pueden aprender a formar representaciones abstractas y generalizables del mundo. El hallazgo central es que entrenar un sistema para realizar múltiples tareas relacionadas con variables latentes subyacentes es un mecanismo poderoso para transformar representaciones sensoriales complejas y no abstractas en representaciones organizadas, de baja dimensión y altamente generalizables. Este proceso, impulsado por la necesidad de encontrar una estructura compartida para resolver diversas demandas de tareas, proporciona una base computacional para comprender una de las capacidades más fundamentales de la cognición superior: la capacidad de abstraer y generalizar.
Preguntas Frecuentes (FAQ)
- ¿Qué es la abstracción cognitiva en términos simples?
Es la capacidad de nuestra mente para identificar características o ideas comunes en diferentes cosas o experiencias, permitiéndonos pensar en conceptos generales en lugar de solo en detalles específicos.
- ¿Por qué es importante la abstracción para el cerebro?
Es crucial para funciones complejas como el razonamiento, la toma de decisiones y el aprendizaje. Permite que el conocimiento aprendido en un contexto se aplique a situaciones nuevas (generalización).
- ¿Cómo se relacionan las representaciones abstractas con las redes neuronales?
En las redes neuronales (y se cree que en el cerebro), las representaciones abstractas son patrones de actividad que codifican información sobre las propiedades esenciales o variables subyacentes de los estímulos de una manera que facilita la generalización.
- ¿Qué es el Modelo de Multi-tareas y cómo ayuda a entender la abstracción?
Es un modelo computacional que simula cómo una red neuronal, al ser entrenada para resolver varios problemas ('tareas') simultáneamente, puede desarrollar representaciones internas abstractas y generalizables a partir de información de entrada inicialmente compleja y no organizada.
- ¿Qué papel juega el número de tareas en el aprendizaje de la abstracción?
El estudio sugiere que un número suficiente de tareas (al menos tantas como las variables latentes subyacentes) es necesario para impulsar la formación de representaciones abstractas robustas en el modelo.
- ¿La abstracción emerge sin importar el tipo de tarea?
No. La abstracción de variables latentes específicas solo ocurre si las tareas que se deben resolver son relevantes o están alineadas con esas variables. Las tareas aleatorias y no relacionadas no promueven la abstracción de una estructura latente particular.
- ¿Pueden las redes neuronales aprender abstracción de imágenes complejas?
Sí, el estudio demostró que el Modelo de Multi-tareas puede aprender representaciones abstractas de conjuntos de imágenes, lo que les permite generalizar a nuevas instancias o realizar manipulaciones compositivas.
- ¿El aprendizaje por refuerzo también puede generar abstracción?
Sí, aunque puede requerir ajustes finos, el estudio mostró que el aprendizaje por refuerzo en un entorno de multi-tareas también puede llevar al desarrollo de representaciones abstractas.
Si quieres conocer otros artículos parecidos a Neurociencia: La Abstracción Cognitiva puedes visitar la categoría Neurociencia.
