Conceptos Clave en Ciencia de Datos

Valoración: 3.71 (2602 votos)

En la era digital actual, la Ciencia de Datos se ha posicionado como una disciplina central en casi todos los sectores. Comprender sus fundamentos no es solo una ventaja, sino una necesidad para navegar en el complejo panorama profesional y tecnológico. La Ciencia de Datos es un campo interdisciplinario que fusiona el análisis estadístico, el aprendizaje automático y la informática para extraer conocimiento y percepciones valiosas de vastos volúmenes de datos.

What are the 4 types of data mining?
To give a perspective, there are four main types of data mining tasks: association rule learning, clustering, classification, and regression. We have identified that these types of data mining tasks are useful in each of the research strands discussed in this research proposal.

Este campo dinámico no solo se trata de manejar grandes conjuntos de datos, sino de aplicar métodos rigurosos para identificar patrones, construir modelos predictivos y facilitar la toma de decisiones informadas. En este artículo, desglosaremos los cinco conceptos fundamentales que constituyen la espina dorsal de la Ciencia de Datos, proporcionándote una comprensión sólida de esta área transformadora.

Índice de Contenido

¿Qué es la Ciencia de Datos?

La Ciencia de Datos es una amalgama de diversas disciplinas. Emplea métodos estadísticos robustos, algoritmos de aprendizaje automático sofisticados y conocimiento experto en áreas específicas para analizar, visualizar y obtener información útil de datos complejos. Esta área de estudio combina técnicas computacionales avanzadas con la estadística tradicional para procesar grandes cantidades de información, descubrir patrones significativos y respaldar la toma de decisiones basadas en evidencia.

¿Qué Hace la Ciencia de Datos?

La Ciencia de Datos tiene múltiples aplicaciones prácticas que impulsan la innovación y la eficiencia:

  • Reconocimiento de Patrones: Utiliza modelos de aprendizaje automático, como redes neuronales y técnicas de agrupamiento (clustering), para detectar patrones en datos estructurados y no estructurados. Estos patrones son a menudo la base del análisis predictivo.
  • Automatización: La automatización en ciencia de datos se logra mediante la creación de flujos de trabajo (pipelines) y modelos que gestionan desde el preprocesamiento de datos hasta la predicción en tiempo real. Un ejemplo claro es la detección de fraude en finanzas, donde modelos automatizados identifican transacciones sospechosas basándose en datos históricos.
  • Optimización: Juega un papel crucial en la optimización de procesos de negocio. Se emplean algoritmos que analizan datos para mejorar la eficiencia, como la optimización de la cadena de suministro mediante la previsión de la demanda predictiva.

Habilidades Clave para la Ciencia de Datos

Para sobresalir en este campo, se requiere una combinación de habilidades técnicas y analíticas:

  • Habilidades de Programación: Python y R son lenguajes esenciales para automatizar tareas de análisis de datos. Librerías de Python como Pandas, NumPy y TensorFlow son ampliamente utilizadas para manipulación de datos y construcción de modelos de aprendizaje automático, mientras que R destaca en el análisis estadístico.
  • Matemáticas y Estadística: Son el fundamento de la mayoría de los algoritmos de aprendizaje automático. Es vital comprender conceptos como operaciones matriciales, vectores propios (utilizados en PCA) y distribuciones de probabilidad.
  • Conocimiento del Dominio: Ayuda a contextualizar los problemas de ciencia de datos y a formular las preguntas correctas. Por ejemplo, en atención médica, el conocimiento del dominio es crucial para entender los datos de los pacientes y construir modelos predictivos efectivos.
  • Limpieza y Transformación de Datos (Data Wrangling): Implica transformar datos desordenados en un conjunto de datos limpio y utilizable. Las técnicas incluyen el manejo de datos faltantes (por ejemplo, imputación por media/moda), transformación de datos (por ejemplo, transformaciones logarítmicas para datos sesgados) y la ingeniería de características (crear nuevas características a partir de datos existentes).

Características Clave

La Ciencia de Datos se distingue por ciertas características fundamentales:

  • Escalabilidad: Los modelos de ciencia de datos deben escalar con el volumen de datos. Técnicas como la computación paralela usando Apache Spark o soluciones basadas en la nube como AWS Lambda se usan comúnmente para procesar grandes conjuntos de datos.
  • Adaptabilidad: Las aplicaciones de ciencia de datos son versátiles. Por ejemplo, el mismo algoritmo de agrupamiento usado en la segmentación de clientes puede adaptarse para tareas de compresión de imágenes.
  • Percepciones Basadas en Datos (Data-Driven Insights): Los modelos de ciencia de datos, como los modelos de regresión o árboles de decisión, transforman datos brutos en estrategias de negocio accionables al descubrir correlaciones, tendencias y anomalías que no son inmediatamente obvias.

Los 5 Conceptos Fundamentales de la Ciencia de Datos

Para dominar la Ciencia de Datos, es crucial comprender y aplicar estos cinco conceptos esenciales. A continuación, exploramos cada uno en detalle:

1. Recolección y Calidad de Datos

La recolección de datos implica obtener datos brutos de diversas fuentes, como bases de datos relacionales, APIs y sensores IoT. La calidad de los datos es fundamental, ya que afecta directamente la validez y fiabilidad de las percepciones derivadas. Los datos de alta calidad son precisos, completos, consistentes y oportunos, asegurando que los modelos construidos sean robustos y fiables.

Conceptos Clave

  • Tipos de Datos:
    • Datos Estructurados: Datos organizados en filas y columnas (ej., bases de datos SQL).
    • Datos Semi-Estructurados: Datos que no se ajustan a un esquema estricto pero tienen propiedades organizacionales (ej., JSON, XML).
    • Datos No Estructurados: Datos que carecen de una estructura predefinida (ej., archivos de texto, videos, imágenes).
  • Técnicas de Adquisición de Datos:
    • Web Scraping: Extracción de datos de sitios web utilizando herramientas como BeautifulSoup y Scrapy.
    • APIs: Automatización de la extracción de datos a través de Interfaces de Programación de Aplicaciones, ej., APIs RESTful.
    • Consultas Directas a Bases de Datos: Uso de SQL para extraer datos de bases de datos de manera eficiente.
  • Métricas de Calidad de Datos:
    • Precisión (Accuracy): La corrección de los datos. Por ejemplo, asegurar que las direcciones de los clientes estén actualizadas.
    • Completitud (Completeness): El conjunto de datos debe tener todos los atributos necesarios. Por ejemplo, todas las entradas en un conjunto de datos deben tener un valor en cada campo requerido.
    • Consistencia (Consistency): Los datos deben ser uniformes entre conjuntos de datos. Por ejemplo, si un conjunto de datos usa “USA” y otro “Estados Unidos”, deben estandarizarse.
    • Oportunidad (Timeliness): Los datos deben estar actualizados. En algoritmos de negociación de acciones, los datos deben ser en tiempo real para hacer predicciones precisas.

Técnicas de Limpieza de Datos

  • Manejo de Datos Faltantes:
    • Imputación: Rellenar valores faltantes con estimaciones estadísticas como la media, mediana o moda.
    • Eliminación: Eliminar registros con datos faltantes cuando la proporción es pequeña.
    • Algoritmos: Usar modelos como KNN o MICE para predecir valores faltantes.
  • Detección de Valores Atípicos (Outliers):
    • Puntuación Z (Z-Score): Identifica valores atípicos basándose en el número de desviaciones estándar que un punto de datos está de la media.
    • IQR (Rango Intercuartílico): Identifica valores atípicos basándose en el rango intercuartílico.
    • Modelos de Detección de Anomalías: Técnicas avanzadas como Isolation Forests y DBSCAN.
  • Normalización y Estandarización:
    • Normalización: Escala los datos a un rango [0,1], útil cuando las características tienen diferentes unidades.
    • Estandarización: Centra los datos restando la media y escalando por la desviación estándar, asegurando una media de 0 y una varianza de 1.

Herramientas y Técnicas Avanzadas

  • Procesos ETL (Extraer, Transformar, Cargar): Flujos de trabajo automatizados para la extracción, transformación y carga de datos en almacenes de datos. Herramientas como Apache NiFi permiten la gestión del flujo de datos en tiempo real.
  • Data Lakes: Repositorios para almacenar grandes cantidades de datos brutos y no estructurados. Plataformas como Hadoop y Amazon S3 permiten un almacenamiento y recuperación de datos flexibles, adecuados para el análisis de big data.

2. Análisis Exploratorio de Datos (EDA)

El Análisis Exploratorio de Datos (EDA) es el proceso de analizar conjuntos de datos para resumir sus características principales, a menudo utilizando métodos visuales. Ayuda a los científicos de datos a comprender la estructura de los datos, detectar anomalías e identificar relaciones entre variables, guiando análisis y modelado posteriores. Es una fase crucial para obtener una comprensión profunda antes de aplicar técnicas más complejas.

Técnicas Clave

  • Estadísticas Descriptivas:
    • Media, Mediana, Moda: Medidas de tendencia central que describen el valor típico en el conjunto de datos.
    • Varianza y Desviación Estándar: Miden la dispersión de los datos, indicando cuánto se desvían los puntos de datos de la media.
    • Asimetría (Skewness) y Curtosis (Kurtosis): Miden la asimetría de los datos y el apuntamiento de la distribución, respectivamente.
  • Visualización de Datos:
    • Histogramas: Muestran la distribución de frecuencia de una variable, resaltando la distribución de los datos y posibles valores atípicos.
    • Box Plots (Diagramas de Caja): Resumen la distribución de los datos a través de cuartiles e identifican valores atípicos usando bigotes.
    • Scatter Plots (Diagramas de Dispersión): Muestran la relación entre dos variables continuas, útiles para detectar correlaciones.
    • Pair Plots (Diagramas de Pares): Muestran relaciones entre múltiples variables, ayudando a identificar tendencias y correlaciones lineales/no lineales.
  • Análisis de Correlación:
    • Correlación de Pearson: Mide la correlación lineal entre variables, variando de -1 a 1.
    • Correlación de Spearman: Mide relaciones monotónicas, útil cuando los datos no están distribuidos normalmente.
    • Mapas de Calor (Heatmaps): Representaciones visuales de matrices de correlación, donde la intensidad del color indica la fuerza de la correlación.

Herramientas Avanzadas

  • Pandas Profiling: Genera un informe de EDA interactivo con un solo comando, resumiendo estadísticas, correlaciones, valores faltantes y distribuciones.
  • Matplotlib & Seaborn: Librerías de Python para crear visualizaciones estáticas, animadas e interactivas. Seaborn se basa en Matplotlib y simplifica la creación de gráficos estadísticos atractivos e informativos.
  • Plotly & Bokeh: Librerías para crear visualizaciones interactivas basadas en web que permiten la exploración dinámica de datos.

Técnicas Avanzadas de EDA

  • Análisis Multivariado:
    • PCA (Análisis de Componentes Principales): Reduce la dimensionalidad de los datos conservando la mayor parte de la varianza, útil para conjuntos de datos de alta dimensión.
    • Análisis Factorial: Identifica relaciones subyacentes entre variables, agrupándolas en factores basados en la varianza común.
  • Análisis de Series Temporales:
    • Análisis de Tendencia: Identifica la dirección a largo plazo de una serie temporal.
    • Análisis de Estacionalidad: Detecta patrones estacionales en los datos.
    • Descomposición: Descompone las series temporales en componentes de tendencia, estacionalidad y residual para comprender mejor la estructura subyacente.

3. Modelado Estadístico y Aprendizaje Automático

El Modelado Estadístico y el Aprendizaje Automático son esenciales para el análisis predictivo en ciencia de datos. Estos métodos permiten construir modelos que predicen resultados futuros, clasifican datos y descubren patrones en conjuntos de datos, formando la base de la toma de decisiones basada en datos.

Conceptos Clave

  • Análisis de Regresión:
    • Regresión Lineal: Modela la relación lineal entre una variable dependiente y una o más variables independientes. Es ampliamente utilizado para pronósticos y análisis de tendencias.
    • Regresión Logística: Un algoritmo de clasificación que modela la probabilidad de un resultado binario. Se utiliza extensamente en aplicaciones como la detección de spam en correos electrónicos y el diagnóstico médico.
  • Algoritmos de Clasificación:
    • Árboles de Decisión: Modelos no lineales que dividen los datos basándose en los valores de las características, creando una estructura similar a un árbol donde cada rama representa una regla de decisión.
    • Random Forest (Bosque Aleatorio): Un método de conjunto que construye múltiples árboles de decisión y los combina para mejorar la precisión y prevenir el sobreajuste.
    • Support Vector Machines (SVM): Encuentra el hiperplano óptimo que separa las clases con el máximo margen, efectivo en espacios de alta dimensión.
    • Redes Neuronales: Modelos complejos inspirados en el cerebro humano, que consisten en capas de nodos (neuronas) que aprenden a mapear entradas a salidas a través de transformaciones no lineales. Las redes neuronales profundas son particularmente efectivas en tareas como el reconocimiento de imágenes y voz.
  • Técnicas de Agrupamiento (Clustering):
    • K-Means Clustering: Particiona los datos en K grupos donde cada punto de datos pertenece al grupo con la media más cercana. Utilizado en segmentación de mercado y compresión de imágenes.
    • Agrupamiento Jerárquico: Construye una jerarquía de grupos, comenzando con cada punto de datos en su propio grupo y fusionándolos iterativamente. Útil para agrupar objetos similares en taxonomías o segmentación de clientes.
    • DBSCAN (Clustering Espacial Basado en Densidad de Aplicaciones con Ruido): Identifica grupos basándose en la densidad de los puntos de datos, capaz de encontrar grupos de formas arbitrarias y manejar ruido (valores atípicos). Ideal para tareas como la detección de anomalías en transacciones de tarjetas de crédito.

Técnicas de Modelado

  • Aprendizaje Supervisado: Entrena modelos utilizando datos etiquetados. Algoritmos comunes incluyen: Regresión Lineal (para predecir variables continuas), Regresión Logística (para problemas de clasificación binaria) y Redes Neuronales (para tareas complejas de reconocimiento de patrones).
  • Aprendizaje No Supervisado: Se utiliza cuando los datos no están etiquetados, típicamente para agrupamiento y asociación: K-Means Clustering (para segmentación de clientes), Análisis de Componentes Principales (PCA) (para reducción de dimensionalidad).
  • Aprendizaje Semi-Supervisado: Combina una pequeña cantidad de datos etiquetados con una gran cantidad de datos no etiquetados. Común en tareas de reconocimiento de imágenes donde el etiquetado es costoso.
  • Aprendizaje por Refuerzo: Implica entrenar un agente a través de ensayo y error, recompensando los comportamientos deseados. Utilizado en áreas como robótica e IA de juegos.

Aplicaciones

  • Atención Médica: Modelado predictivo para resultados de pacientes usando regresión logística, detección de anomalías en imágenes médicas con redes neuronales y agrupamiento para segmentación de pacientes.
  • Finanzas: Calificación crediticia usando modelos de clasificación, optimización de cartera usando regresión y evaluación de riesgos con técnicas de agrupamiento.
  • Marketing: Segmentación de clientes con algoritmos de agrupamiento, predicción del valor de vida del cliente usando regresión y motores de recomendación usando filtrado colaborativo.

Herramientas Avanzadas

  • TensorFlow y Keras: Frameworks para construir y entrenar modelos de aprendizaje profundo. TensorFlow es conocido por su flexibilidad y escalabilidad para desplegar modelos en producción.
  • PyTorch: Otro framework de aprendizaje profundo popular en la academia e investigación, conocido por su grafo de computación dinámico.
  • Scikit-learn: Una librería de Python que proporciona herramientas simples y eficientes para la minería y el análisis de datos, implementando una amplia gama de algoritmos de aprendizaje automático.

4. Visualización de Datos

La Visualización de Datos es la representación gráfica de información y datos. Al utilizar elementos visuales como gráficos, diagramas y mapas, las herramientas de visualización de datos proporcionan una forma accesible de ver y comprender tendencias, valores atípicos y patrones en los datos. Una buena visualización puede revelar percepciones ocultas que de otro modo serían difíciles de detectar.

Técnicas de Visualización

  • Gráficos de Barras: Se utilizan para comparar diferentes categorías o grupos, ideales para datos categóricos.
  • Gráficos de Líneas: Muestran tendencias de datos a lo largo del tiempo, útiles en el análisis de series temporales.
  • Diagramas de Dispersión (Scatter Plots): Muestran la relación entre dos variables continuas, a menudo utilizados para identificar correlaciones.
  • Histogramas: Visualizan la distribución de una sola variable, destacando la frecuencia de diferentes rangos de valores.
  • Mapas de Calor (Heatmaps): Representan datos en formato matricial, con colores que indican valores. A menudo se utilizan para mostrar correlaciones o distribuciones de datos geográficos.

Herramientas Avanzadas de Visualización

  • Tableau: Conocido por sus potentes visualizaciones de datos interactivas que se integran con diversas fuentes de datos.
  • Power BI: Proporciona capacidades de inteligencia empresarial y visualización de datos, particularmente útil para el análisis de datos en tiempo real en empresas.
  • Matplotlib & Seaborn: Librerías de Python para visualizaciones detalladas y personalizables. Seaborn se basa en Matplotlib y simplifica la creación de gráficos complejos.
  • Plotly: Permite la creación de gráficos interactivos que se pueden incrustar en aplicaciones web, útil para la exploración dinámica de datos.

Aplicaciones

  • Inteligencia Empresarial: Paneles en tiempo real para rastrear KPIs, tendencias de ventas y métricas financieras.
  • Atención Médica: Visualización de tendencias de datos de pacientes, como la propagación de enfermedades o la eficacia de los tratamientos.
  • Marketing: Visualizaciones de segmentación de clientes utilizando mapas de calor y visualización de datos geográficos para la distribución de ventas.
Tipo de VisualizaciónAplicaciónHerramientas
Gráfico de BarrasComparación de datos categóricosTableau, Power BI, Matplotlib
Gráfico de LíneasAnálisis de tendencias a lo largo del tiempoMatplotlib, Power BI, Tableau
Diagrama de DispersiónExamen de relaciones entre variablesMatplotlib, Plotly, Seaborn
Mapa de CalorMatriz de correlación, visualización de intensidadSeaborn, Plotly, Power BI
HistogramaVisualización de la distribución de variablesSeaborn, Matplotlib

5. Evaluación y Validación de Modelos

La Evaluación y Validación de Modelos aseguran que un modelo de aprendizaje automático funcione bien con datos no vistos. Este proceso implica el uso de diversas métricas y técnicas para evaluar la precisión, la precisión (precision), la exhaustividad (recall) y otros indicadores de rendimiento, garantizando la generalización y robustez del modelo. Sin una evaluación adecuada, un modelo podría parecer prometedor en los datos de entrenamiento pero fallar en el mundo real.

What is the best data repository?
THE BEST FREE RESEARCH DATA REPOSITORYDryadFigShareZenodoOpen Science FrameworkMendeleySummary

Métricas Clave

  • Precisión (Accuracy): Mide la proporción de predicciones correctas respecto al total de predicciones realizadas, pero puede no ser suficiente para conjuntos de datos desequilibrados.
  • Precisión (Precision) y Exhaustividad (Recall): La precisión se centra en la exactitud de las predicciones positivas, mientras que la exhaustividad mide la capacidad del modelo para capturar todos los positivos reales. La puntuación F1 (F1 score) equilibra precisión y exhaustividad.
  • ROC-AUC: Mide la capacidad del clasificador en todos los umbrales de clasificación, con el área bajo la curva (AUC) indicando el rendimiento del modelo.

Técnicas Avanzadas

  • Validación Cruzada (Cross-Validation): Divide los datos en múltiples pliegues (folds) para validar el modelo en diferentes subconjuntos, reduciendo el riesgo de sobreajuste. La validación cruzada k-fold es un método popular.
  • Bootstrapping: Muestra repetidamente el conjunto de datos con reemplazo para estimar la precisión y la varianza del modelo.
  • Ajuste de Hiperparámetros (Hyperparameter Tuning): La búsqueda en cuadrícula (Grid Search) y la búsqueda aleatoria (Random Search) son métodos comunes para encontrar los mejores parámetros del modelo, a menudo acoplados con validación cruzada.

Herramientas

  • Scikit-learn: Proporciona funciones para la evaluación de modelos, incluyendo validación cruzada, matriz de confusión y ROC-AUC.
  • TensorFlow/Keras: Permite métricas personalizadas y técnicas de validación para modelos de aprendizaje profundo.
  • R: Paquetes como 'caret' y 'e1071' ofrecen amplias herramientas para la evaluación de modelos.

Aplicaciones

  • Finanzas: Evaluación de modelos de riesgo crediticio para minimizar falsos positivos y falsos negativos.
  • Atención Médica: Validación de modelos de diagnóstico para garantizar alta precisión y exhaustividad, crítico para la seguridad del paciente.
  • Comercio Minorista: Evaluación de sistemas de recomendación para mejorar la satisfacción del usuario asegurando predicciones precisas.
MétricaDefiniciónMejor Caso de Uso
Precisión (Accuracy)Proporción de instancias predichas correctamenteConjuntos de datos equilibrados
Precisión (Precision)Verdaderos Positivos / (Verdaderos Positivos + Falsos Positivos)Cuando los Falsos Positivos son costosos
Exhaustividad (Recall)Verdaderos Positivos / (Verdaderos Positivos + Falsos Negativos)Cuando los Falsos Negativos son costosos
Puntuación F1 (F1 Score)2 * (Precision * Recall) / (Precision + Recall)Conjuntos de datos desequilibrados
ROC-AUCÁrea bajo la curva ROCEvaluación del rendimiento del clasificador

En resumen, la ciencia de datos se ha consolidado como un campo crucial en el mundo actual impulsado por los datos, combinando análisis estadístico, aprendizaje automático e informática para extraer información valiosa de grandes cantidades de información.

A lo largo de este artículo, hemos explorado los conceptos fundamentales que forman la columna vertebral de la ciencia de datos, desde el aprendizaje automático y los modelos estadísticos hasta el preprocesamiento de datos y el desarrollo de algoritmos.

Estos principios básicos proporcionan una base sólida para los profesionales que buscan navegar por las complejidades del análisis de datos e impulsar la innovación en diversas industrias, y esperamos que a través de este artículo hayamos podido ayudarte a aprenderlos con facilidad.

Preguntas Frecuentes (FAQs)

¿Cuáles son los conceptos centrales que uno debe entender en ciencia de datos?

Los conceptos centrales incluyen la recolección y calidad de datos, el análisis exploratorio de datos (EDA), el modelado estadístico y aprendizaje automático, la visualización de datos y la evaluación y validación de modelos.

¿Puedes explicar las '5 P's' de la ciencia de datos?

Aunque el texto no utiliza explícitamente el término '5 P's', los cinco conceptos fundamentales detallados son: Recolección y Calidad de Datos (Podría relacionarse con Preparación o Provisión), Análisis Exploratorio de Datos (EDA - Podría relacionarse con Percepción o Patrones), Modelado Estadístico y Aprendizaje Automático (Podría relacionarse con Predicción o Procesamiento), Visualización de Datos (Podría relacionarse con Presentación) y Evaluación y Validación de Modelos (Podría relacionarse con Performance o Prueba). Estos cinco pilares son cruciales para el proceso de ciencia de datos.

¿Qué constituye los cinco componentes clave de la ciencia de datos?

Los cinco componentes clave, según la estructura presentada, son: 1) Recolección y Calidad de Datos, 2) Análisis Exploratorio de Datos (EDA), 3) Modelado Estadístico y Aprendizaje Automático, 4) Visualización de Datos y 5) Evaluación y Validación de Modelos. Estos pasos forman un ciclo típico en muchos proyectos de ciencia de datos.

Si quieres conocer otros artículos parecidos a Conceptos Clave en Ciencia de Datos puedes visitar la categoría Neurociencia.

Foto del avatar

Jesús Porta Etessam

Soy licenciado en Medicina y Cirugía y Doctor en Neurociencias por la Universidad Complutense de Madrid. Me formé como especialista en Neurología realizando la residencia en el Hospital 12 de Octubre bajo la dirección de Alberto Portera y Alfonso Vallejo, donde también ejercí como adjunto durante seis años y fui tutor de residentes. Durante mi formación, realicé una rotación electiva en el Memorial Sloan Kettering Cancer Center.Posteriormente, fui Jefe de Sección en el Hospital Clínico San Carlos de Madrid y actualmente soy jefe de servicio de Neurología en el Hospital Universitario Fundación Jiménez Díaz. Tengo el honor de ser presidente de la Sociedad Española de Neurología, además de haber ocupado la vicepresidencia del Consejo Español del Cerebro y de ser Fellow de la European Academy of Neurology.A lo largo de mi trayectoria, he formado parte de la junta directiva de la Sociedad Española de Neurología como vocal de comunicación, relaciones internacionales, director de cultura y vicepresidente de relaciones institucionales. También dirigí la Fundación del Cerebro.Impulsé la creación del grupo de neurooftalmología de la SEN y he formado parte de las juntas de los grupos de cefalea y neurooftalmología. Además, he sido profesor de Neurología en la Universidad Complutense de Madrid durante más de 16 años.

Subir