Señales y Estadísticas: Limpiando Datos

Valoración: 4.02 (2968 votos)

El procesamiento de señales es un campo fundamental que abarca el análisis, modificación y síntesis de diversas mediciones científicas, incluyendo aquellas provenientes de sofisticadas tecnologías de imagen como la resonancia magnética (MRI) y la imagen por pulsos de terahercios (THz). Sin embargo, estas señales rara vez se reciben en su estado puro; a menudo están perturbadas por interferencias ambientales o inherentes al sistema, lo que comúnmente denominamos ruido. La naturaleza aleatoria de este ruido hace que las técnicas estadísticas desempeñen un papel indispensable en el procesamiento de señales. La estadística se utiliza para formular modelos que describan el comportamiento del sistema, desarrollar métodos para estimar parámetros de esos modelos y evaluar su rendimiento. El Procesamiento Estadístico de Señales, en esencia, se refiere al análisis de señales aleatorias utilizando estas técnicas estadísticas apropiadas. Existe un vínculo inextricable entre el procesamiento estadístico de señales y el aprendizaje automático (Machine Learning), cuya base también reside en la estadística, y la sinergia entre ambos campos promete avances significativos.

What is statistical signal processing and machine learning?
Statistical Signal Processing basically refers to the analysis of random signals using appropriate statistical techniques. Machine learning has been receiving extensive attention from both the academia and industry, and its foundation lies in statistics.

Uno de los desafíos más críticos en el procesamiento de señales, especialmente en conjuntos de datos de imagen por pulsos de THz o MRI, es la eliminación de ruido, un proceso conocido como de-noising. Este pre-procesamiento busca mejorar la precisión de las mediciones, como la función de pérdida de inserción compleja en THz, que se ve afectada por el ruido de amplitud y fase. El origen del ruido puede ser diverso: variaciones pulso a pulso, inestabilidad del emisor THz, estabilidad dependiente de la temperatura, limitaciones en el movimiento de las etapas de traslación o ruido de disparo del detector. Cuando este ruido no sigue una distribución Gaussiana simple, las mediciones repetidas y el co-promediado, aunque mejoran la relación señal-ruido (SNR), no son suficientes o son imprácticos debido al aumento significativo del tiempo de medición. El co-promediado solo ofrece una mejora en la relación señal-ruido proporcional a la raíz cuadrada del tiempo, lo que subraya la necesidad del post-procesamiento para la eliminación de ruido. Además, los largos tiempos de integración son inadecuados para aplicaciones donde la respuesta THz depende del tiempo, como en el secado de muestras o el movimiento de agentes de contraste en tejidos bajo estudio. El procesamiento de señales puede mitigar estos problemas.

Índice de Contenido

El Desafío del Ruido y las Primeras Respuestas

El ruido en los datos no solo reduce la precisión, sino que, si no se maneja adecuadamente, puede introducir artefactos (un sesgo en los parámetros extraídos) que comprometan el rendimiento de clasificadores posteriores. Técnicas iniciales como la apodización de ventanas (window apodization) se utilizan para reducir la ondulación de Gibbs en el dominio de la frecuencia, causada por discontinuidades en los datos al borde de los interferogramas registrados en el dominio del tiempo. La optimización de la función de apodización es posible incluso para muestras muy dispersivas, utilizando algoritmos que consideran la asimetría de los pulsos THz de femtosegundo. Esta técnica tiene aplicaciones relevantes no solo en THz sino también, potencialmente, mejorando la resolución temporal en conjuntos de datos de MRI de perfusión.

Técnicas Clásicas de Filtrado Estadístico

Existen técnicas bien establecidas para el filtrado de ruido que son aplicables tanto a la imagen por pulsos de THz como a los conjuntos de datos de MRI. Estas incluyen:

  • Filtrado Wiener: Un filtro lineal óptimo en el sentido de mínimos cuadrados, útil para reducir el ruido aditivo.
  • Análisis de Componentes Principales (PCA): Una técnica de reducción de dimensionalidad que también puede usarse para de-noising al proyectar los datos sobre un subespacio de componentes principales que capturan la mayor variabilidad (señal) y descartar aquellas con baja variabilidad (ruido).
  • Redes Neuronales Artificiales (ANN): Modelos computacionales inspirados en la estructura del cerebro que pueden ser entrenados para identificar y eliminar patrones de ruido.
  • Técnicas de Máxima Entropía: Métodos que buscan la distribución de probabilidad que mejor se ajusta a los datos observados, maximizando la entropía sujeta a ciertas restricciones, lo que puede ayudar a reconstruir señales a partir de datos ruidosos o incompletos.

Estas técnicas han demostrado su valía en diversas aplicaciones de procesamiento de señales para reducir el impacto del ruido.

Modelado Avanzado: Cálculo de Orden Fraccional

Un avance importante en el modelado de la dinámica de desexcitación, con orígenes en la teoría de dieléctricos complejos, es el uso del cálculo de orden fraccional y el ajuste de modelos de orden fraccional. En este enfoque, los conjuntos de datos experimentales de series temporales se modelan utilizando expresiones parsimoniosas (con pocos parámetros) de polos y ceros, asociadas a la dinámica de redes resistivas, capacitivas o inductivas. Aunque la identificación de sistemas de orden fraccional es un campo emergente, promete ofrecer errores residuales mucho menores en los modelos identificados, lo que representa un avance significativo en la Quimiometría aplicada a datos de THz y DCE-MRI. La esencia de esta parametrización es que un modelo de orden fraccional puede explicar interacciones colectivas de múltiples especies y fuerzas intermoleculares (como el apantallamiento de carga a distancia o la dinámica friccional), proporcionando un modelo muy conciso de estas interacciones. Esto permite explicar desplazamientos espectrales en materiales amorfos y desincrustar la dinámica de solvatación. La aplicación del cálculo de orden fraccional a datos de MRI está en sus inicios, pero ya se han visto casos donde se combinan relajaciones de Debye con funciones de Kohlrausch-Williams-Watts o expresiones asintóticas fractales tipo Rigaut para el modelado. Los modelos de orden fraccional también son compatibles con expresiones de difusión tipo Bloch-Torrey.

Análisis Multirresolución: El Poder de las Wavelets

Una alternativa o complemento al ajuste de modelos para la eliminación de ruido y la extracción de características es el análisis multirresolución, particularmente utilizando transformadas de wavelets. En la imagen por pulsos de THz, las técnicas multirresolución como las transformadas de wavelets son especialmente efectivas para reducir aún más el ruido en interferogramas apodizados y centrados en la media. Además, permiten extraer información directa tiempo-frecuencia mientras aseguran parametrizaciones parsimoniosas de los datos. Un procedimiento típico de de-noising con wavelets consiste en descomponer la señal original utilizando la transformada discreta de wavelets (DWT) o la transformada discreta de wavelets en paquetes (DWPT), umbralizar los coeficientes de detalle (que suelen contener el ruido), y reconstruir la señal aplicando la transformada inversa. Para el de-noising de transitorios THz de femtosegundo, una descomposición de tres niveles suele ser suficiente. El de-noising con wavelets complementa bien otros esquemas de parametrización en el dominio del tiempo o la frecuencia.

Un banco de filtros de wavelets descompone una señal de serie temporal separando los componentes de alta frecuencia (detalle) y baja frecuencia (aproximación), asumiendo una función wavelet madre predefinida. Este enfoque proporciona capacidades muy eficientes de de-noising en presencia de ruido blanco Gaussiano y ofrece una representación parsimoniosa. Una característica importante de esta transformada es que es ortogonal, lo que permite una simetría de reconstrucción perfecta. Esto significa que su transformada inversa puede reproducir el conjunto de datos original sin pérdida de información, lo que es crucial para la trazabilidad en el procesamiento de datos biomédicos.

Un desarrollo importante ha sido el uso de wavelets adaptativas, donde la función wavelet madre se adapta específicamente en cada nivel de descomposición para minimizar el error cuadrático de mínimos cuadrados. Este enfoque es notablemente eficiente para extraer información contenida en cada pulso THz. Las wavelets mejoran significativamente la robustez de la clasificación frente al ruido en comparación con el análisis en el dominio original, y la optimización de la transformada wavelet puede aumentar aún más esta robustez.

Existen otras rutinas de pre-procesamiento basadas en wavelets para mejorar la SNR y la clasificación de espectros THz, que han permitido, por ejemplo, discriminar tejido canceroso de tejido normal en secciones histopatológicas o clasificar regiones de dentina y esmalte en dientes. Generalmente, se acepta que el rendimiento de un clasificador basado en la salida de un banco de filtros de wavelets es superior al de un clasificador basado en distancia euclidiana en el dominio espectral original.

Otras alternativas para el de-noising incluyen técnicas de estimación del espectro de potencia de wavelets (WPSET), un enfoque no paramétrico basado en una representación wavelet del logaritmo del espectro de potencia. Otros métodos de pre-procesamiento incluyen corrección de línea base, suavizado, cálculo de derivadas (primera y segunda), corrección de dispersión multiplicativa (MSC) y análisis de varianza normal estándar (SNV). Todos estos métodos tienen mérito bajo diferentes condiciones experimentales.

Es importante considerar que el ruido en las imágenes de magnitud de MRI es dependiente de la señal (Rician), mientras que la mayoría de los algoritmos de de-noising asumen ruido Gaussiano aditivo. Para abordar el ruido Rician, se han introducido filtros bilaterales en los bancos de filtros de paso bajo de wavelets correspondientes a la escala más alta en imágenes de MRI. Al aplicar el filtrado a los coeficientes de aproximación, se preservan las características de los bordes. Técnicas de umbralización posterior, como soft thresholding o NeighShrink, se utilizan para la reconstrucción. La validación se puede realizar con métricas como el índice de similitud estructural (SSIM), el error cuadrático medio (RMSE) o el coeficiente de Bhattacharyya.

Otra alternativa es preservar los aspectos real y complejo de la señal y aplicar el filtrado por separado. Esto tiene mérito al considerar que la salida de un banco de filtros de doble canal puede acoplarse directamente a la entrada de un clasificador, como una máquina de vectores de soporte compleja. En el caso particular de los conjuntos de datos de fMRI BOLD, la distribución del ruido se ha demostrado recientemente que sigue un modelo Gaussiano, lo que simplifica el de-noising. La coherencia espacial en fMRI BOLD, relacionada con la 'suavidad' y la correlación espacial, varía sistemáticamente con la frecuencia temporal. Los algoritmos de suavizado espacial para BOLD a menudo aumentan el ruido temporal en bajas frecuencias, lo que puede ser perjudicial. Un marco de de-noising multirresolución es, por tanto, muy apropiado para los datos BOLD. Las wavelets también son útiles en MRI paralela, donde los niveles de ruido varían espacialmente.

What are statistical techniques in Signal Processing?
The linear statistical TS models can be categorized into stationary methods such as autoregressive model (AR), moving average model (MA), autoregressive moving average (ARMA) model; and non-stationary methods such as vector autoregressive (ARV) model, the autoregressive model with exogenous input (ARX), autoregressive ...

Las wavelets también se utilizan en la fusión de imágenes, como una modificación de la transformada piramidal, para combinar información de múltiples imágenes de la misma escena, creando una nueva imagen más adecuada para la percepción humana y automática, y para tareas posteriores como segmentación o reconocimiento de objetos. Esto es relevante para integrar datos de THz y MRI. Finalmente, las wavelets tienen aplicaciones en MRI dispersa y Compressed Sensing (detección comprimida), técnicas de gran relevancia.

Extracción y Selección de Características

Después del paso de de-noising, los datos de entrada deben agruparse en conjuntos de vectores de características. La elección de estas características es fundamental para el rendimiento posterior del clasificador. Un requisito para un sistema de clasificación es su capacidad para generalizar automáticamente, a menudo basándose en su conjunto de entrenamiento. Un espacio de entrada muy grande puede abrumar al clasificador, un problema conocido como la "maldición de la dimensionalidad", especialmente si el número de características es elevado. Además, las características elegidas deben ser representativas de las muestras.

Existe una amplia gama de parámetros que se pueden seleccionar. Estos pueden ser características estructurales no transformadas (momentos, potencia, amplitud, energía, etc.) o características estructurales transformadas (espectros de fase y amplitud, coeficientes de descomposición wavelet, coeficientes AR, ARMA, etc.). En la imagen por pulsos de THz, cada medición es una forma de onda dependiente del tiempo (un conjunto de datos 4D si consideramos las coordenadas espaciales y el tiempo). Las características pueden derivarse de la forma de onda completa o de puntos específicos (pico de amplitud o retardo de fase, dispersión máxima de velocidad de grupo, área bajo la curva, logaritmo de la absorbancia, etc.). Un ejemplo es usar características seleccionadas en el espectro para identificar diferentes muestras en un contexto de clasificación multiclase. Esto reduce la dimensionalidad de los vectores de características.

Alternativamente, puede ser beneficioso considerar un conjunto de datos de mayor dimensión, incluyendo coeficientes reales y complejos de una transformada de Fourier, componentes principales de PCA, coeficientes wavelet del análisis tiempo-frecuencia, coeficientes AR/ARMA o una mezcla de wavelets con AR/ARMA. Los coeficientes derivados de métodos de identificación de subespacios o expresiones de identificación de orden fraccional (Cole, Havriliak-Negami, etc.) también pueden usarse.

Las expansiones de Fourier sufren limitaciones, como la noción de soporte infinito en el dominio del tiempo, lo que compromete la calidad de la señal debido a la ondulación de Gibbs, a menos que se apliquen rutinas de apodización. Otras características con poder discriminatorio incluyen la media, desviación estándar, asimetría (skewness), curtosis (kurtosis), cuartiles, rango intercuartílico (IQR), mediana, máximo y mínimo, calculados a partir de secuencias de correlación cruzada. Es beneficioso aumentar el espacio de entrada del clasificador tratando las partes real y compleja de la señal por separado, o añadiendo canales adicionales para acomodar información estructural y de textura.

Variantes de estas técnicas incluyen el uso de coeficientes wavelet para extraer características de datos hiperspectrales de reflexión THz, o la transformada de átomos de onda (WAT), una técnica multirresolución que ofrece una expansión más dispersa para texturas oscilatorias y orientadas. Otros métodos evitan errores de fase, como usar la primera o segunda derivada de la fase. Los árboles de decisión también se han aplicado para asistir en la selección de características. Finalmente, las características extraídas utilizando la transformada de Radon, originaria de la comunidad de radar de alta resolución, también se han considerado, aunque su aplicación requiere precaución debido a la posible introducción de artefactos.

En la interpretación de DCE-MRI, los clínicos consideran simultáneamente varios parámetros: cinética vascular, textura, forma y tamaño. Estos tienen valor pronóstico en el cáncer de mama localmente avanzado, complementando los indicadores tradicionales de supervivencia. Sin embargo, es un problema multiparamétrico que no se simplifica con una única reducción de información. Solo depender de curvas intensidad-tiempo puede ser insuficiente. La cinética vascular refleja el flujo sanguíneo, la densidad vascular y la permeabilidad, y su análisis pixel a pixel permite evaluar la heterogeneidad de la lesión. Interesantemente, los valores medios y medianos de cinética parecen tener poco valor pronóstico por sí solos.

Además de la cinética, otras características de la imagen son importantes. Por ejemplo, el segundo momento angular y la entropía derivados de MRI, que representan la heterogeneidad, proporcionan información crucial sobre la composición del tejido. Las características de entropía pueden diferenciar entre subtipos histológicos e inmunohistoquímicos de cáncer de mama (ductal vs. lobular), implicando diferencias en la heterogeneidad de la lesión. El análisis de textura proporciona información adicional para la toma de decisiones. La necesidad de análisis de correlación de orden superior y la optimización de la selección de características para lesiones masivas y no masivas refuerzan la importancia de preservar características adicionales. El análisis de textura es especialmente relevante en el cáncer de mama triple negativo (TNBC), vinculado a la respuesta a la quimioterapia. En su forma más simple, el análisis de textura relaciona la intensidad del nivel de gris con la variación espacial, extrayendo características que describen la estructura subyacente del objeto. Se ha vinculado tanto a indicadores pronósticos tradicionales como a la respuesta inicial a la quimioterapia neoadyuvante (NAC). Estudios exhaustivos han concluido que varias características de textura pueden proporcionar información adicional para predecir la respuesta individual antes del NAC.

Eliminación de Artefactos y Reconstrucción Multicanal

Los cambios en la intensidad de los tumores en las imágenes de MRI son comunes en la práctica clínica, lo que dificulta la segmentación del objeto de interés. Esta variación se atribuye principalmente a las inhomogeneidades de intensidad dentro del escaneo (intra-scan intensity inhomogeneities). Los artefactos de susceptibilidad en las imágenes de eco de gradiente son conocidos por afectar frecuentemente las intensidades observadas, causando inhomogeneidades significativas. Aunque visualmente uniformes, estas inhomogeneidades a menudo “revuelven” la segmentación basada en intensidad.

Un ejemplo típico es un carcinoma ductal in situ en el tejido mamario. Partes de la misma estructura anatómica dentro del tumor pueden mostrar valores de intensidad diferentes. La segmentación basada en intensidad (por ejemplo, con fuzzy c-means) puede interpretar regiones de baja intensidad como un anillo irregular o un hueco, creando áreas mal definidas de ambigüedad de intensidad. Esto es un artefacto que debería ser interpolado por vóxeles de mayor intensidad.

La reconstrucción unificada de una imagen volumétrica a partir de múltiples canales mejora enormemente la consistencia de la intensidad. Esto permite una segmentación con límites más homogéneos para los tumores, recuperando su forma y posición completas. La validación muestra que la reconstrucción permite localizar correctamente los límites del tumor, eliminando artefactos encontrados en la imagen original realzada. Esto lleva a una mejor segmentación de patrones realzados en comparación con regiones donde se obtuvieron patrones de realce interno heterogéneos. El uso de métodos de recuperación dispersa en MRI dinámica rápida, con un enfoque multicanal, puede disminuir los errores de muestreo, reducir el espacio de almacenamiento y mejorar la velocidad computacional.

What is signal processing in psychology?
Signal processing is the processing, amplification and interpretation of signals and deals with the analysis and manipulation of signals.

Avances Recientes: Textura Topológica

Recientemente, se han propuesto los funcionales de Minkowski (MFs) como una forma novedosa de describir la textura de la imagen. Esta técnica se ha utilizado con éxito en tomografía computarizada (CT) y mamografía, y se ha aplicado para analizar imágenes de MRI para determinar la malignidad en la mama y medir la respuesta a la quimioterapia.

El análisis de textura también puede situarse en un marco topológico unificado más genérico, del cual se pueden extraer características adicionales para la clasificación. Este enfoque asocia puntos en una imagen (una nube de puntos) con bloques elementales como vértices, aristas, triángulos o símplices de dimensiones superiores (que podrían representar pliegues en un tejido). Los complejos simpliciales, como los complejos de Čech o de Vietoris-Rips, se construyen a partir de la nube de puntos, capturando información sobre la conectividad y estructura. La construcción de un invariante topológico para estos complejos implica generar un espacio vectorial y definir operadores de frontera, cuyas representaciones matriciales contienen información sobre los “agujeros” o áreas no rellenas, definiendo espacios de homología.

La discretización de trazas de textura es un área emergente en visión por computadora con aplicaciones significativas en MRI, no solo para el análisis de textura, sino también en segmentación y análisis de movimiento. Esta técnica podría complementar otros intentos de utilizar análisis de textura asistido por computadora en DCE-MRI. Otro estudio que correlaciona el fenotipado de imagen radiómica para identificar TNBC con características cuantitativas de textura (heterogeneidad del realce del parénquima de fondo) a partir de DCE-MRI, considerando el tumor y el parénquima circundante, demuestra el valor discriminatorio de la caracterización cuantitativa detallada del realce del parénquima. Ambos estudios respaldan firmemente la incorporación de la textura en un marco de selección de características.

Preguntas Frecuentes

¿Qué es el ruido en el procesamiento de señales científicas?

El ruido son perturbaciones indeseadas que afectan las mediciones de señales, originadas por factores como la inestabilidad del sistema, variaciones en los componentes, limitaciones del detector o interferencias ambientales. Puede ser de diversa naturaleza, no siempre Gaussiano.

¿Por qué es necesario el de-noising (eliminación de ruido)?

El ruido reduce la precisión de las mediciones y puede introducir sesgos o artefactos que comprometan el análisis posterior, como el rendimiento de los clasificadores automáticos.

¿Cómo ayudan las wavelets a eliminar el ruido?

Las wavelets permiten descomponer la señal en diferentes componentes de frecuencia y tiempo. El ruido, especialmente el Gaussiano, tiende a concentrarse en ciertos coeficientes (los de detalle), que pueden ser reducidos o eliminados mediante umbralización. La reconstrucción posterior produce una señal con menos ruido.

¿Qué son las características en el procesamiento de señales y por qué se seleccionan?

Las características son parámetros o descriptores extraídos de la señal (como amplitud, energía, coeficientes de transformación, medidas de textura) que resumen información relevante. Se seleccionan para reducir la dimensionalidad de los datos, facilitar el entrenamiento de clasificadores y mejorar su capacidad de generalización, evitando la "maldición de la dimensionalidad".

¿Cómo contribuye el análisis de textura?

El análisis de textura cuantifica la variación espacial de la intensidad en una imagen, proporcionando información sobre la heterogeneidad y estructura interna de los tejidos o materiales. Esta información puede ser crucial para diferenciar tipos de tejidos, identificar patologías y predecir la respuesta a tratamientos, especialmente en imágenes médicas.

¿Qué es la reconstrucción multicanal y para qué sirve?

Es una técnica que combina información de múltiples "canales" o adquisiciones de una misma escena para mejorar la consistencia de la intensidad y eliminar artefactos causados por inhomogeneidades dentro del escaneo. Es particularmente útil en imágenes médicas como la MRI para mejorar la segmentación de estructuras de interés.

La Convergencia con el Aprendizaje Automático

Las técnicas estadísticas de procesamiento de señales, como el de-noising avanzado y la extracción cuidadosa de características, son pasos de pre-procesamiento esenciales para el éxito de los algoritmos de aprendizaje automático aplicados a datos complejos. Al proporcionar datos limpios y representaciones informativas, se mejora la capacidad de los modelos de Machine Learning para identificar patrones, clasificar muestras y hacer predicciones precisas. La sinergia entre estos campos es clave para desbloquear nuevas capacidades en el análisis de datos científicos y biomédicos.

TécnicaPropósito PrincipalAplicaciones NotablesVentajasLimitaciones/Consideraciones
Window ApodizationReducir ondulación de GibbsTHz, Potencialmente MRIReduce artefactos en dominio frecuenciaRequiere optimización según muestra
Filtrado WienerDe-noising (ruido aditivo)GeneralÓptimo para ruido Gaussiano conocidoSensible a la naturaleza del ruido
PCADe-noising, Reducción Dimens.THz, MRIIdentifica componentes principalesAsume linealidad, sensible a outliers
Wavelets (DWT/DWPT)De-noising, Análisis Tiempo-FrecuenciaTHz, MRI (BOLD, paralela)Eficiente para ruido Gaussiano, parsimonioso, ortogonalidadRendimiento depende de wavelet madre, ruido Rician requiere adaptación
Modelado Orden FraccionalModelado Dinámica/InteraccionesTHz, DCE-MRI, QuimiometríaModelos parsimoniosos, explica interacciones complejasCampo emergente, identificación puede ser compleja
Análisis de TexturaCuantificar heterogeneidad espacialMRI (DCE-MRI), CT, MamografíaProporciona información sobre composición/estructuraLa elección de características es clave, puede ser sensible a artefactos
Reconstrucción MulticanalCorregir inhomogeneidades intensidadMRIMejora consistencia y segmentaciónRequiere datos de múltiples canales

Si quieres conocer otros artículos parecidos a Señales y Estadísticas: Limpiando Datos puedes visitar la categoría Neurociencia.

Foto del avatar

Jesús Porta Etessam

Soy licenciado en Medicina y Cirugía y Doctor en Neurociencias por la Universidad Complutense de Madrid. Me formé como especialista en Neurología realizando la residencia en el Hospital 12 de Octubre bajo la dirección de Alberto Portera y Alfonso Vallejo, donde también ejercí como adjunto durante seis años y fui tutor de residentes. Durante mi formación, realicé una rotación electiva en el Memorial Sloan Kettering Cancer Center.Posteriormente, fui Jefe de Sección en el Hospital Clínico San Carlos de Madrid y actualmente soy jefe de servicio de Neurología en el Hospital Universitario Fundación Jiménez Díaz. Tengo el honor de ser presidente de la Sociedad Española de Neurología, además de haber ocupado la vicepresidencia del Consejo Español del Cerebro y de ser Fellow de la European Academy of Neurology.A lo largo de mi trayectoria, he formado parte de la junta directiva de la Sociedad Española de Neurología como vocal de comunicación, relaciones internacionales, director de cultura y vicepresidente de relaciones institucionales. También dirigí la Fundación del Cerebro.Impulsé la creación del grupo de neurooftalmología de la SEN y he formado parte de las juntas de los grupos de cefalea y neurooftalmología. Además, he sido profesor de Neurología en la Universidad Complutense de Madrid durante más de 16 años.

Subir