SlideShare una empresa de Scribd logo
Statistical Neuroimage Modeling, Processing
and Synthesis based on Texture and
Component Analysis
Tackling the Small Sample Size Problem
Francisco Jesús Martínez Murcia
1 de Junio de 2017
Directores:
Javier Ramírez Pérez de Inestrosa
Juan Manuel Górriz Sáez
Tabla de contenidos
1. Introducción
Motivación
Estado del arte
Metodología general
2. Reducción del espacio de características
Descomposición de imágenes
Análisis de texturas
Spherical Brain Mapping
3. Aumento del tamaño de la muestra
Significance-Weighted PCA (SWPCA)
Síntesis de imagenes
4. Conclusions
Conclusions
2
Motivación
• El uso de neuroimagen se ha incrementado exponencialmente
en los últimos años.
• Los estudios se basan en análisis estadísticos de poblaciones
diferenciadas.
• En esta tarea, el procesado de neuroimagen mediante
computadores es fundamental, pudiendo extraer información
relevante, e incluso predecir una enfermedad.
• Problema: Problema del pequeño tamaño de la muestra, o
Small Sample Size Problem. 4
Motivación
El Small Sample Size Problem, o problema del pequeño tamaño de la
muestra.
En neuroimagen, >500.000 características → espacios casi vacíos →
resultados poco generalizables.
5
Objetivos
Objetivo principal
Contribuir con nuevas estrategias para solucionar el problema del
pequeño tamaño de la muestra en neuroimagen.
Objetivo 1
Proveer nuevas estrategias
para reducir el espacio de
características sin pérdida de
información.
Objetivo 2
Desarrollar nuevos sistemas
para aumentar el tamaño de la
muestra.
6
Objetivos
Hemos aportado varias contribuciones para cada uno de los
objetivos descritos, que se han distribuído de la siguiente manera:
REDUCIR EL ESPACIO DE CARACTERÍSTICAS
DIAGNÓSTICO
ASISTIDO POR
COMPUTADOR
SÍNTESIS
DE
IMÁGENES
Capítulo 8
FUSIÓN DE
DATASETS
Capítulo 7
MAPEO
ESFÉRICO
Capítulo 6
ANÁLISIS
DE TEXTURA
Capítulo 5
DESCOMPOSICIÓN
DE IMAGEN
Capítulo 4
AUMENTAR TAMAÑO
ABORDANDO EL PROBLEMA DEL PEQUEÑO TAMAÑO DE LA MUESTRA
7
Patologías
• Enfermedad de Alzheimer (AD) y
Parkinsonismo (PKS) son las enfermedades
neurodegenerativas con mayor prevalencia.
→ Procesos de neurodegeneración.
• El Trastorno del Espectro Autista (ASD) es,
por su parte, uno de los trastornos del
neurodesarrollo que más atención recibe.
→ Causas desconocidas.
• Además de historial, test neurocognitivos
(MMSE, ADAS) y sintomatología clínica, cada
vez se estudian más marcadores
relacionados con neuroimagen.
9
Biomarcadores
En AD:
• Atrofia cerebral en imagen resonancia magnética (MRI).
• Hipometabolismo y aparición de placas de amiloide en
tomografía por emisión de positrones (PET).
• Hipoperfusión sanguínea en tomografía computarizada por
emisión monofotónica (SPECT).
NORMAL MCI AD
10
Biomarcadores
En PKS:
• Radioligandos como 123
I FP-CIT (DaTSCAN) en SPECT, que
permiten observar la distribución de transportadores de
dopamina en el estriado.
En ASD:
• Evidencia contradictoria en MRI.
CTL PD PD
11
Machine learning en neuroimagen
• Machine learning permite
que los computadores
aprendan a partir de datos →
identificar patrones, explorar
estructuras y realizar
predicciones.
• En medicina, Computer Aided
Diagnosis (CAD), sistemas de
ayuda al diagnóstico.
NEUROIMAGING
01 02
03
High dimensional brain
data, labeled
by experts.
FEATURE
EXTRACTION
Extract features
from the images
DIAGNOSIS
Train a model and
predict labels of
unseen data
04
FEATURE SELECTION
Select best features
SISTEMAS CAD
Generalmente, los sistemas CAD
consisten en cuatro pasos: adquisición
y preprocesado, extracción de
características, selección de
características y clasificación
12
Sistemas CAD
• Voxels as features (VAF)1
: el CAD más simple. Voxels como
características de un clasificador.
• Extracción de características: creación de nuevas características
inherentes a los datos:
• Espesor cortical (FreeSurfer)2
• Descomposición PCA3
• Otras descomposiciones (ICA, EMD, PLS)4
.
1Stoeckel J., Fung G. (2005). SVM feature selection for classification of spect images of
Alzheimer’s disease using spatial information
2Young Noh et al (2014). Anatomical heterogeneity of Alzheimer disease based on
cortical thickness on MRIs. Neurology
3Mudali et al (2015). Classification of Parkinsonian Syndromes from FDG-PET Brain
Data Using Decision Trees with SSM/PCA Features. Computational and Mathematical
Methods in Medicine.
4I.A. Illan, et al (2011). 18 F-FDG PET imaging analysis for computer aided Alzheimer’s
diagnosis. Information Sciences.
13
Sistemas CAD
• Extracción de características (continuación):
• Análisis de texturas5
• Selección de características: selección de las más relevantes
para la clasificación6
.
• Clasificadores: bayesianos, SVM, decision trees, ensembles, etc 7
.
5L. Sørensen et al (2015). Early detection of Alzheimer’s disease using MRI
hippocampal texture. Human Brain Mapping.
6B. Mwangi, et al (2014). A Review of Feature Reduction Techniques in Neuroimaging.
Neuroinformatics
7D. Zhang, et al (2011). Multimodal classification of Alzheimer’s disease and mild
cognitive impairment, NeuroImage
14
Preprocesado
Cauce general de preprocesado de neuroimagen estructural:
Original
Template Normalized Smoothed
Segmented
16
Registro (o normalización espacial)
Transformación rígida (afín) con 12 parámetros que se asignan
mediante la minimización de una función de coste.
Ejemplo: el error cuadrático medio entre la imagen y la plantilla.





x′
y′
z′
1





=





a00 a01 a02 a03
a10 a11 a12 a13
a20 a21 a22 a23
0 0 0 1










x
y
z
1





(1)
Transformación no rígida (warping): adaptación de diferencias
locales entre sujetos. Se estima una serie de campos de
deformación y se aplican.
17
Registro (o normalización espacial)
ORIGINAL AFFINE NON-RIGID
18
Segmentación
GM WM
• Clasificación de cada voxel como
cada tipo de tejido (GM, WM, CSF y
otros).
• Combinación de una estimación de
distribución como mezcla de
gaussianas con los mapas a priori
para producir mapas de
probabilidad a posteriori para cada
tejido.
• Dilatación y erosión iterativa de
mapas para limpieza.
• Modulación → Escalado de los
mapas para que la cantidad total de
tejido se preserve.
19
Normalización en intensidad
Fórmula general para realizar la transformación de intensidades:
I′
= aI + b (2)
En esta tesis: normalización al máximo y normalización integral.
(a) (b) Normalización al Máximo1
Sin normalización
(c) Normalización Integral1
1
I.A. Illan et al (2012). Automatic assistance
to Parkinsonˈs disease diagnosis in
DaTSCAN SPECT imaging. Medical Physics
20
Evaluación de los sistemas
Clasificador: Support Vector Machine lineal.
Evaluación: 10-Fold estratificado.
Training Set
Training Folds Test Folds
1ª Iteración
2ª Iteración
3ª Iteración
10ª Iteración
E1
E2
E3
E10
E
21
Evaluación: Parámetros
Predicción
Positivo Negativo
Real
Positivo Verd. Positivo Falso Positivo
Negativo Falso Negativo Verd. Negativo
Table 1: Matriz de confusión
acc =
TP + TN
TP + TN + FP + FN
(3)
sens =
TP
TP + FN
spec =
TN
TN + FP
(4)
22
Evaluación: Bases de Datos
Hospital
Virgen de la Victoria
Hospital
Virgen de las Nieves
23
Descomposición de imágenes
• En esta sección exploramos una serie de sistemas CAD8910
que
combina algoritmos de selección y descomposición de
características aplicados al diagnóstico de AD y PKS.
8F.J. Martinez-Murcia et al (2012). Computer aided diagnosis tool for Alzheimer’s
disease based on Mann–Whitney–Wilcoxon U-test. Expert Systems with Applications.
9F.J. Martinez-Murcia et al (2013). Functional activity maps based on significance
measures and Independent Component Analysis. Computer methods and programs in
biomedicine.
10F.J. Martinez-Murcia et al (2014). Automatic detection of Parkinsonism using
significance measures and component analysis in DaTSCAN imaging. Neurocomputing
25
Selección de características
Selección de características
t-Test
two-sample t-test, cuantifica diferencias entre dos
clases, asumiendo varianzas independientes. Se
asume distribución normal.
t = µ1−µ2√
σ2
2
+σ2
1
n
Entropía relativa
Medida no simétrica de diferencias entre dos distribuciones de probabilidad.
RE =
(
σ2
2/σ2
1 + σ2
1/σ2
2 − 2
)
+ 1
2
(µ2 − µ1)2 (
1/σ2
1 + 1/σ2
2
)
Mann-Whitney-Wilcoxon U-test
Medida no paramétrica, basada en el ranking de las características y asignación de
valores. Bajo distribución normal similar al t-test.
26
Descomposición de características
Descomposición de características
Ecuación general de la descomposición lineal:
xi = s0w0 + s1w1 + · · · + scwc + ϵ = sW + ϵ (5)
En esta tesis: Análisis de factores (FA) y Análisis de componentes
independientes (ICA).
27
Descomposición: Factor Analysis
Reescribimos la Eq. 5 asumiendo que X está centrada en 0:
X − µ = SW + ϵ (6)
Asumimos:
• W y ϵ son independientes.
• E[W] = 0.
• Cov(W) = I, lo que asegura que los factores no están
correlados.
• Conocemos c, el número de componentes a estimar.
La estimación se realiza via Maximum Likelihood y está más
detallada en la memoria.
28
Descomposición: Independent Component Analysis
Teorema central del límite
La distribución de una combinación lineal de variables
independientes es más gaussiana que las variables originales
Es posible estimar una de estas variables minimizando la
gaussianidad. El conjunto de señales finales está de nuevo
representado por:
X = WS (7)
Usamos FastICA, un algoritmo neuronal que usa una regla de
aprendizaje para calcular iterativamente wc de modo que w′
c × xi
maximice la no-gaussianidad.
FastICA se basa en entropía negativa para medir la no-gaussianidad.
29
Experimentos
Experimentos
• Vamos a probar las diferentes combinaciones de métodos de
selección y extracción de características en cada una de las
bases de datos funcionales que utilizamos:
• Bases de datos: ADNI-PET y VDLN-HMPAO (para AD), y PPMI-DAT,
VDLN-DAT y VDLV-DAT (para PKS).
• Métodos de selección: t-test, relative entropy y Mann-Whitney
Wilcoxon.
• Métodos de extracción: Factor Analysis e ICA.
30
Resultados (AD): rendimiento en clasificación
Método de descomposición
Figure 1: Precisión en función del método de selección y decomposición de
características con 5 componentes, utilizando las dos bases de datos de AD.
31
Resultados (AD): regiones más significativas
0
2
4
6
8
10
(a) t-test.
0.0
0.5
1.0
1.5
2.0
2.5
(b) Relative entropy.
0.000
0.001
0.002
0.003
0.004
0.005
0.006
0.007
0.008
(c) Wilcoxon.
Figure 2: Comparación entre los diferentes métodos de filtrado, y las
regiones donde la diferencia en metabolismo de glucosa es más
significativa, en la base de datos ADNI-PET.
32
Resultados (PKS): rendimiento en clasificación
Método de descomposición
Figure 3: Precisión en función del método de selección y decomposición de
características para 5 componentes, en las tres bases de datos de PKS.
33
Resultados (PKS): regiones más significativas
0
2
4
6
8
10
12
14
16
(a) t-test.
0
1
2
3
4
5
(b) Relative entropy.
0.000
0.001
0.002
0.003
0.004
0.005
(c) MWW U-test.
Figure 4: Comparación entre los diferentes métodos de filtrado, y las
regiones donde el déficit de DAT es más significativo en PPMI-DAT.
34
Análisis de texturas
La información sobre textura es ampliamente utilizada en
reconocimiento de patrones.
Construimos un CAD11
que utiliza características de textura para el
diagnóstico de PD (no incluye SWEDD).
11F.J. Martinez-Murcia et al (2013). Parametrization of textural patterns in 123I-ioflupane
imaging for the automatic detection of Parkinsonism. Medical Physics.
36
Extracción de subvolúmenes
Extracción de subvolúmenes
0 20 40 60
0
10
20
30
40
50
60
70
Ith = 0.25
0 20 40
0
10
20
30
40
50
60
Ith = 0.30
0 10 20 30 40
0
10
20
Ith = 0.35
px,min = arg min
x
(I > Ith) (8)
px,max = arg max
x
(I > Ith) (9)
Isub = I[px,min : px,max, py,min : py,max, pz,min : pz,max] (10)
37
Análisis de Textura
Análisis de Textura de Haralick
C∆(i, j) =
(n,m,k)
∑
p=(1,1,1)
{
1, si I(p) = i y I(p + ∆) = j
0, en otro caso
(11)
i
j
i
j
• Mide las frecuencias de pares de
valores de grises a diferentes
distancias y direcciones d ˆ∆.
• Cuantización.
• Matriz de probabilidades
P(i, j) = C∆(i,j)∑
i,j C∆(i,j) para calcular
características.
38
Características de Haralick
Energy =
∑
i
∑
j
P(i, j)2
(12)
Correlation =
∑
i
∑
j ijP(i,j)−µxµy
σxσy
(13)
Contrast =
Ng−1∑
n=0
n2
{
∑
|i−j|=n
P(i, j)
}
(14)
Sum Mean = 1
2
∑
i
∑
j
(iP(i, j) + jP(i, j)) (15)
Cluster Shade =
∑
i
∑
j
(i + j − µx − µy)3
P(i, j) (16)
Cluster Tendency =
∑
i
∑
j
{i + j − µx − µy}4
P(i, j) (17)
Homogeneity =
∑
i
∑
j
P(i,j)
1+|i−j| (18)
39
Experimentos
Experimentos
• Experimento 1: Umbral óptimo de definición de subvolumen.
• Experimento 2: Habilidad de cada característica de textura para
diferenciar entre PD y CTLs.
• Dos modos de variación de distancia en la GLCM: single
(individual) y cumulative (acumulativa).
• Experimento 3: Selección de características de textura.
40
Experimento 1: Umbral óptimo
Experimento 1: Umbral óptimo
0.0 0.1 0.2 0.3 0.4 0.5
Ith
0.78
0.80
0.82
0.84
0.86
0.88
0.90
0.0 0.1 0.2 0.3 0.4 0.5
Ith
0.78
0.80
0.82
0.84
0.86
0.88
0.0 0.1 0.2 0.3 0.4 0.5
Ith
0.78
0.80
0.82
0.84
0.86
0.88
0.90
Accuracy
0.0 0.1 0.2 0.3 0.4 0.5
Ith
0.76
0.78
0.80
0.82
0.84
0.86
0.0 0.1 0.2 0.3 0.4 0.5
Ith
0.76
0.78
0.80
0.82
0.84
0.0 0.1 0.2 0.3 0.4 0.5
Ith
0.76
0.78
0.80
0.82
0.84
0.86
Accuracy
PPMI-DAT
VDLN-DAT
VDLV-DAT
Average accuracy vs. Ith
sin normalizar (single) norm. al máximo (single) normalización integral (single)
sin normalizar (cumulative) norm. al máximo (cumulative) normalización integral (cumulative)
Figure 5: Precisión obtenida al promediar todos los valores de precisión
obtenidos con un umbral de selección de volumen Ith para cada base de
datos, método de normalización y distribución de distancias de la GLCM.
41
Experimento 1: Umbral óptimo
0 20 40 60
0
10
20
30
40
50
60
70
Ith = 0.25
0 20 40
0
10
20
30
40
50
60
Ith = 0.30
0 10 20 30 40
0
10
20
Ith = 0.35
Figure 6: Volúmenes seleccionados con diferentes umbrales de selección en
la base de datos PPMI-DAT.
42
Experimento 2: características de textura
Experimento 2: características de textura
0.4 0.6 0.8
Accuracy
Energy
Entropy
Correlation
Contrast
Variance
SumMean
Inertia
ClusterShade
ClusterTendency
Homogeneity
MaxProbability
InverseVariance
Feature
PPMI­DAT
normmax
normno
0.4 0.6 0.8
Accuracy
VDLN­DAT
0.4 0.6 0.8
Accuracy
VDLV­DAT
Figure 7: Violin plot: distribución de las precisiones obtenidas al variar la
dirección y distancia de cálculo de la GLCM para cada característica de
textura, método de normalización y base de datos (single).
43
Experimento 2: características de textura
0.60
0.65
0.70
0.75
0.80
0.85
0.90
0.95
1.00
Integral Maximum Original Integral Maximum Original Integral Maximum Original
PPMI-DAT VDLN-DAT VDLV-DAT
single
cumulative
Normalización
Base de datos
Precisión
Figure 8: Precisión máxima obtenida por el sistema utilizando la
característica Cluster Tendency, en imágenes normalizadas al máximo en las
aproximaciones single y cumulative.
44
Experimento 3: selección de características
Experimento 3: selección de características
0.0 0.2 0.4 0.6 0.8 1.0
Proportion of selected voxels
0.75
0.80
0.85
0.90
0.95
1.00
Accuracy
0.0 0.2 0.4 0.6 0.8 1.0
Proportion of selected voxels
0.75
0.80
0.85
0.90
0.95
1.00
ttest
entropy
wilcoxon
0.0 0.2 0.4 0.6 0.8 1.0
Proportion of selected voxels
0.75
0.80
0.85
0.90
0.95
1.00
Accuracy
PPMI-DAT
VDLV-DAT
VDLN-DAT
Figure 9: Precisión promedio obtenida para cada método de selección de
características en función del número de características seleccionadas, para
las tres bases de datos DaTSCAN.
45
Experimento 3: selección de características
Legend
Normalización
Base de datos
Precisión
Figure 10: Máxima precisión (obtenida con diferente número de
características seleccionadas) para los distintos métodos de selección,
normalización y bases de datos.
46
Introducción
Proyección de imágenes 3D a mapas 2D representando
características de textura radiales, construidas sobre caminos
rectilíneos 12
o caminos que se adaptan a la estructura cerebral 13
MRI
Brain
Images
Tissue
Segmentation
Classification
(SVM)
Feature
Selection
12F.J. Martinez-Murcia et al (2016). A Spherical Brain Mapping of MR Images for the
Detection of Alzheimer’s Disease. Current Alzheimer Research.
13F.J. Martinez-Murcia et al (2016). A Structural Parametrization of the Brain Using
Hidden Markov Models-Based Paths in Alzheimer’s Disease. International Journal of
Neural Systems.
48
Spherical Brain Mapping
Spherical Brain Mapping
Figure 11: Ilustración del cómputo del vector de mapeo vθ,φ, en los ángulos
θ y φ y la vecindad de radio r de v. El vector de mapeo selecciona las
intensidades de los voxels que cruza, en el conjunto Vθ,φ.
49
Spherical Brain Mapping
Surface
vsurf = arg max
i
{Vθ,φ(i) > Ith} (19)
Number of Folds
the number of disjoint connected
subsets in Aθ,φ:
Aθ,φ = {i / Vθ,φ(i) > Ith} (20)
Thickness
vthick = arg max
i
{Vθ,φ(i) > Ith}
− arg min
i
{Vθ,φ(i) > Ith}
Average
vav =
1
N
∑
i
Vθ,φ(i) (21)
Entropy
vent =
∑
i
Vθ,φ(i) ∗ log(Vθ,φ(i)) (22)
Kurtosis
vkurt =
1
N
∑
i
(
Vθ,φ(i) − ¯Vθ,φ(i)
)4
(
1
N
∑
i
(
Vθ,φ(i) − ¯Vθ,φ(i)
)2
)2
(23)
50
Ejemplos GM
Average (GM)
50 100 150 200 250 300 350
50
100
150
Kurtosis (GM)
50 100 150 200 250 300 350
50
100
150
Entropy (GM)
50 100 150 200 250 300 350
50
100
150
Num.Fold (GM)
50 100 150 200 250 300 350
50
100
150
Surface (GM)
50 100 150 200 250 300 350
50
100
150
Thickness (GM)
50 100 150 200 250 300 350
50
100
150
Figure 12: Ejemplos de las diferentes medidas SBM sobre mapas GM
segmentados.
51
Ejemplos WM
Average (WM)
50 100 150 200 250 300 350
50
100
150
Kurtosis (WM)
50 100 150 200 250 300 350
50
100
150
Entropy (WM)
50 100 150 200 250 300 350
50
100
150
Num.Fold (WM)
50 100 150 200 250 300 350
50
100
150
Surface (WM)
50 100 150 200 250 300 350
50
100
150
Thickness (WM)
50 100 150 200 250 300 350
50
100
150
Figure 13: Ejemplos de las diferentes medidas SBM sobre mapas WM
segmentados.
52
Extension en capas
1
2
3
4
50 100 150 200 250 300 350
20
40
60
80
100
120
140
160
180
50 100 150 200 250 300 350
20
40
60
80
100
120
140
160
180
50 100 150 200 250 300 350
20
40
60
80
100
120
140
160
180
50 100 150 200 250 300 350
20
40
60
80
100
120
140
160
180
Capa 1 Capa 2
Capa 3 Capa 4
Figure 14: Ejemplo de los mapas SBM average para 4 capas sobre GM. Se
aprecian el tálamo (capa 1), estructuras subcorticales del estriado e
hipocampo (capa 2) y la corteza cerebral (capa 3 y 4).
53
Volumetric Radial Local Binary Patterns
VRLBP (GM)
50 100 150 200 250 300 350
50
100
150
VRLBP (WM)
50 100 150 200 250 300 350
50
100
150
54
Caminos basados en modelos ocultos de Markov
p1
p2 p3
pN
p0
Figure 15: Ilustración de la selección de cada punto en función de las
probabilidades P(I(pi)|pi) y P(pi|pN).
55
Caminos basados en modelos ocultos de Markov
Modelo oculto de markov primer orden Pθ,φ = {p0, p1, p2, . . . , pN}
→ parámetro oculto I(pi).
Popt
θ,φ = arg max
Pθ,φ
{P(Pθ,φ|I)} (24)
P(Pθ,φ|I) = P(p0, . . . , pN|I(p0), . . . , I(pN)) (25)
=
P(I(p0), . . . , I(pN)|p0, . . . , pN) · P(p0, . . . , pN)
P(I(p0), . . . , I(pN))
(26)
Asumiendo que P(I(p0), . . . , I(pN)) es constante en todo el camino:
P(Pθ,φ|I) = P(I(p0), . . . , I(pN)|p0, . . . , pN) · P(p0, . . . , pN) (27)
P(I(p0), . . . , I(pN)|p0, . . . , pN) =
∏N
i=1 P(I(pi)|pi) y
P(p0, . . . , pN) =
∏N
i=1 P(pi|pN)
56
Caminos basados en modelos ocultos de Markov
Figure 16: Ejemplo de los caminos HMM calculados sobre la plantilla DARTEL.
57
GLCM y texturas sobre caminos
Cálculo de la GLCM utilizando el camino entre pi−1 y pi como ∆.
Extracción de características de Haralick.
0 50 100 150 200 250 300 350
0
25
50
75
100
125
150
175
Average
0 50 100 150 200 250 300 350
0
25
50
75
100
125
150
175
Variance
0 50 100 150 200 250 300 350
0
25
50
75
100
125
150
175
Entropy
0 50 100 150 200 250 300 350
0
25
50
75
100
125
150
175
Kurtosis
58
MRI
Brain
Images
Tissue
Segmentation
Classification
(SVM)
Feature
Selection
Experimentos
Experimentos
• Experimento 1: Mapas SBM y VRLBP originales con imágenes GM
y WM segmentadas y su extensión por capas. Análisis de
significancia y clasificación.
• Experimento 2: Caminos basados en HMMs. Evaluación en
datos simulados.
• Experimento 3: Caminos basados en HMMs. Uso de caminos
como selección de características, combinación de los sets de
voxels seleccionados. Construcción de mapas HMM-SBM.
Evaluación por clasificación.
• Experimento 4: Análisis de texturas sobre los caminos basados
en HMM.
59
Experimento 1: Análisis de significancia en GM
Average (GM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Entropy (GM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Kurtosis (GM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Num.Fold (GM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Surface (GM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Thickness (GM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Figure 17: Áreas más significativas en las diferentes medidas SBM obtenidas
de los mapas GM.
60
Experimento 1: Análisis de significancia en WM
Average (WM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Entropy (WM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Kurtosis (WM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Num.Fold (WM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Surface (WM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Thickness (WM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Figure 18: Áreas más significativas en las diferentes medidas SBM obtenidas
de los mapas WM.
61
Experimento 1: Análisis de significancia (capas)
Layer 1
50 100 150 200 250 300 350
20
40
60
80
100
120
140
160
180
Layer 2
50 100 150 200 250 300 350
20
40
60
80
100
120
140
160
180
Layer 3
50 100 150 200 250 300 350
20
40
60
80
100
120
140
160
180
Layer 4
50 100 150 200 250 300 350
20
40
60
80
100
120
140
160
180 −15
−10
−5
0
5
10
15
−15
−10
−5
0
5
10
15
−15
−10
−5
0
5
10
15
−15
−10
−5
0
5
10
15
Figure 19: Resultados del t-test en SBM average sobre mapas GM, utilizando
cuatro capas.
62
Experimento 1: Análisis de significancia (VRLBP)
VRLBP (GM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
VRLBP (WM)
50 100 150 200 250 300 350
50
100
150
−10 −5 0 5 10
Figure 20: Áreas más significativas en los mapas VRLBP (GM y WM).
63
Experimento 1: Clasificación
Surface Thickness Num.Fold Average Entropy Kurtosis VRLBP VAF
0.0
0.2
0.4
0.6
0.8
1.0
Accuracy GM
WM
Figure 21: Precisión obtenida por un SVM lineal en cada una de las medidas
SBM sobre mapas GM y WM, y comparadas con la aproximación VAF.
64
Experimento 2: Ejemplos
200 400 600 800 1000 1200 1400 1600
100
200
300
400
500
600
700
800
900
1000
1100
0
500
1000
1500
2000
2500
3000
10
15
20
10
15
20
10
15
20
25
30
35
40
Data distribution
HMM Path
20 40 60 80 100 120 140
20
40
60
80
100
120
Figure 22: Caminos HMM trazados sobre diferentes distribuciones 2D y 3D
sintéticas y reales.
65
Experimento 3: Caminos como selección de características
0.5
0.55
0.6
0.65
0.7
0.75
0.8
0.85
0.9
0.95
1
Figure 23: Precisión obtenida con el conjunto de intensidades Vθ,φ
seleccionados por cada camino (en color).
66
Experimento 3: Caminos como selección de características
Selección Lado Precisión Sensibilidad Especificidad
Todos
I 0.769 ± 0.035 0.717 ± 0.061 0.822 ± 0.057
D 0.792 ± 0.080 0.706 ± 0.120 0.878 ± 0.101
- 0.806 ± 0.069 0.733 ± 0.073 0.878 ± 0.097
t-test
I 0.733 ± 0.037 0.694 ± 0.099 0.772 ± 0.124
D 0.781 ± 0.085 0.711 ± 0.122 0.850 ± 0.083
- 0.828 ± 0.054 0.794 ± 0.095 0.861 ± 0.039
Table 2: Precisión usando todos los voxels seleccionados por los caminos
HMM.
67
Experimento 4: Características de textura
0.600 0.625 0.650 0.675 0.700 0.725 0.750 0.775 0.800
Precisión
Energy
Entropy
Correlation
Contrast
Homogeneity
Dissimilarity
Difference Variance
Difference Entropy
IDN
IDMN
Característica
Precisión de la clasificación
Figure 24: Precisión de las diferentes características de Haralick calculadas a
lo largo de cada camino HMM.
68
Introducción
El problema: alta heterogeneidad en estudios multicentro, debido a
efectos del centro de adquisición. Falsos positivos.
Propuesta: Eliminar efectos de sitio. Análisis en imágenes
reconstruídas14
.
qT1
qT2
synT1 WM
GM
DARTEL PCA
normalized
maps (X)
site group
ANOVA Λ(c)
p-values
loadings (W)
scores (S)
weights (Λ)
analysis
reconstructed
maps (X)
SWPCA
scores (S)
14F.J. Martinez-Murcia et al (2016). On the brain structure heterogeneity of autism:
Parsing out acquisition site effects with significance-weighted principal component
analysis. Human Brain Mapping.
70
Descomposición PCA
Descomposición PCA
Descomposicion
S = XW−1
(28)
Reconstrucción
ˆX = SW (29)
71
Estimación de significancia estadística, cálculo de pesos
y reconstrucción
SWPCA
1. Estimación del p-valor para cada componente usando ANOVA, en
relación con el centro de adquisición y el grupo de cada imagen.
2. Cálculo de un coeficiente λc para cada componente.
0.0 0.2 0.4 0.6 0.8 1.0
p1
0.0
0.2
0.4
0.6
0.8
1.0
(p)
Weighting Function
λc(pc, pth) = 1 − e
−pc
pth ∀pc ∈ [0, 1] (30)
3. Reconstrucción pesada: X = SΛW con Λ = diag(λ0, . . . , λc).
72
SWPCA
CAM LON
¡ 3
¡ 2
¡ 1
0
1
2
3
4
1 (weight= 8.32E-01)
CAM LON
2 (weight= 0.00E+ 00)
CAM LON
3 (weight= 6.14E-06)
CAM LON
4 (weight= 9.98E-01)
Figure 25: Box-plot de la distribución de las diferentes componentes en
cada centro de adquisición (AIMS-MRI). Asumimos que una mayor diferencia
entre distribuciones implica una mayor influencia del centro de adquisición
sobre ese componente, por lo que reducimos su contribución.
73
qT1
qT2
synT1 WM
GM
DARTEL PCA
normalized
maps (X)
site group
ANOVA Λ(c)
p-values
loadings (W)
scores (S)
weights (Λ)
analysis
reconstructed
maps (X)
SWPCA
scores (S)
Experimentos
Experimentos
• Experimento 1: Efecto del centro de adquisición. Sitio como
etiqueta, aplicando o no SWPCA. Análisis por clasificación y VBM.
• Experimento 2: Diferencias entre grupos dentro de cada centro
de adquisición. Rendimiento de un clasificador en las bases de
datos CAM y LON.
• Experimento 3: Efecto de SWPCA en las diferencias entre grupos.
Análisis por clasificación y VBM.
74
CAM
ASD+CTL
LON
ASD+CTL
diferencias
SVM VBM
CAM
ASD+CTL
LON
ASD+CTL
diferencias
SVM VBM
SWPCA SWPCA
ORIG ORIG
Experimento 1: Diferencias entre centros
Experimento 1: Diferencias entre centros
-9.3
-4.7
0
4.7
9.3
-5.9
-3
0
3
5.9- S
-5.3
-2.7
0
2.7
5.3
-4.5
-2.3
0
2.3
4.5W
Figure 26: t-maps de diferencias significativas entre centros, antes y después
de SWPCA (synT1 y GM).
75
Experimento 1: Diferencias entre centros
0.4
0.5
0.6
0.7
0.8
0.9
1.0
GM+WM GM WM GM+WM GM WM GM+WM GM WM GM+WM GM GM+WM WM
qT1 qT2 synT1 GM WM
no-SWPCA
SWPCA
Máscara
Tejido
Precisión
Figure 27: Rendimiento en clasificación de LON vs CAM.
76
ASD
(CAM)
CTL
(CAM)
diferencias
SVM
ASD
(LON)
CTL
(LON)
diferencias
SVM
Experimento 2: Diferencias entre grupos (por centro)
Experimento 2: Diferencias entre grupos (por centro)
0.4
0.5
0.6
0.7
0.8
0.9
1.0
GM GM+WM WM GM GM+WM WM GM GM+WM WM GM GM+WM WM
GM WM qT1 qT2 synT1
CAMBRIDGE
LONDON
Máscara
Tejido
Precisión
Figure 28: Rendimiento en clasificación de cada centro en ASD vs CTL.
77
CAM
ASD+CTL
LON
ASD+CTL
diferencias
SVM VBM
ASD
CAM+LON
CTL
CAM+LON
diferencias
SVM VBM
SWPCA SWPCA
ORIG ORIG
Experimento 3: Diferencias entre grupos (SWPCA)
Experimento 3: Diferencias entre grupos (SWPCA)
L R
z=-26
L R
z=-16
L R
z=-6
L R
z=4
L R
z=14
L R
z=24
L R
z=34
L R
z=48
L R
z=60
L R
z=-26
L R
z=-16
L R
z=-6
L R
z=4
L R
z=14
L R
z=24
L R
z=34
L R
z=48
L R
z=60 -5.1
-2.6
0
2.6
5.1L R
z=-46
GM (GM+WM) - SWPCA
Figure 29: t-maps de diferencias significativas entre centros, antes y después
de SWPCA (synT1 y GM).
78
Experimento 3: Diferencias entre grupos (SWPCA)
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Máscara
Tejido
Precisión
GM GM+WM WM GM GM+WM WM GM GM+WM WM GM GM+WM WM
GM WM qT1 qT2 synT1
SWPCA
no-SWPCA
Figure 30: Rendimiento en clasificación en ASD vs CTL (con y sin SWPCA).
79
Introducción
El problema: pequeño número de muestras disponibles en estudios
de imagen nuclear.
Propuesta: Aumentar el número de datos de cada clase disponible
mediante síntesis.
loadings
scores
BASE DE
DATOS
PCA
scores
generados
BASE DE
DATOS
SINTÉTICA
MODELADO PDF
CTL
MCI
AD
loadings
81
loadings
scores
Principal Component Analysis
El espacio eigenbrain
Descomposición PCA:
X = SW (31)
Extracción de component loadings
(base de un espacio
c-dimensional), también
conocidos como eigenbrains, y
component scores, las
coordenadas de cada sujeto en el
espacio eigenbrain.
Group
MCI
AD
Normal
Componente0
Componente 1
82
El espacio eigenbrain
−40
−20
0
20
40
60
0
−20
0
20
40
1
−20
0
20
40
2
−50 0 50
0
−20
0
20
40
3
−50 0 50
1
−50 0 50
2
0 50
3
Group
MCI
AD
Normal
83
Modelado de PDF
Estimación de PDF
ˆfc
mvn(x) =
1
(2π)N/2 |Σc
|
1/2
exp
(
(x − µc
)T
Σ−1
c (x − µc
)
2
)
(32)
ˆfi,c
kde(x) =
1
Nc
Nc∑
l=1
Kh
(
x − Si,c
l
)
=
1
Nch
Nc∑
l=1
K
(
x − Si,c
l
h
)
(33)
−60 −40 −20 0 20 40 60
0.000
0.005
0.010
0.015
0.020
0.025
0.030
Class Normal (1st component)
MVN
KDE
Histogram
−60 −40 −20 0 20 40 60 80
0.000
0.005
0.010
0.015
0.020
0.025
0.030
Class MCI (1st component)
MVN
KDE
Histogram
−75 −50 −25 0 25 50 75 100
0.000
0.005
0.010
0.015
0.020
0.025
0.030
Class AD (1st component)
MVN
KDE
Histogram
Figure 31: Comparación entre las estimaciones de PDF mediante MVN y KDE
en la primera componente, con referencia del histograma.
84
Generación de coordenadas
Generación de coordenadas
s1
s2
q2
q1
Figure 32: Para generar las nuevas coordenadas si en espacio eigenbrain, se
generan query points (qi) de una distribución uniforme y se convierten
usando la CDF.
85
loadings
scores
BASE DE
DATOS
PCA
scores
generados
BASE DE
DATOS
SINTÉTICA
MODELADO PDF
CTL
MCI
AD
loadings
Experimentos
Experimentos
Hemos probado el algoritmo de síntesis en las bases ADNI-PET y
PPMI-DAT.
• Base: VAF en cada base de datos y diferentes escenarios.
Análisis SPM adicional.
• Experimento 1: Poder predictivo de las imágenes sintéticas.
Predecir ejemplos reales con imágenes generadas a partir del
training set.
• Experimento 2: Independencia de las imágenes sintéticas:
Usamos el mismo conjunto para test y training, y hacemos test
también sobre imágenes generadas usando el conjunto de test.
86
Base: VAF sobre cada base de datos
0.5
0.6
0.7
0.8
0.9
1.0
AD vs CTL MCI vs AD MCI vs CTL PD vs CTL
ADNI-PET PPMI-DAT
KDE
MVN
Orig
Escenario
Base de datos
Precisión
Figure 33: Rendimiento en clasificación VAF de cada una de las bases de
imágenes originales y sintéticas.
87
Base: ADNI-PET
L R
L R
-12
-6
0
6
12
L R
L R
-15
-7.4
0
7.4
15
L R
L R
-15
-7.4
0
7.4
15
Figure 34: Análisis SPM de la base de datos ADNI-PET (Orig, MVN, KDE).
88
Base: PPMI-DAT
L R
L R
-24
-12
0
12
24
L R
L R
-29
-15
0
15
29
L R
L R
-20
-9.9
0
9.9
20
Figure 35: Análisis SPM de la base de datos PPMI-DAT (Orig, MVN, KDE).
89
Base
de datos
original
Validación cruzada
TRAINING
SET (ORIG)
TEST SET(ORIG)
TRAINING SET
(SINTÉTICO)
SVM
Experimento 1
Entrenamiento
Test
Estimación
de la
precisión
Experimento 1: poder predictivo de las imágenes
sintéticas
Experimento 1
0.5
0.6
0.7
0.8
0.9
1.0
AD vs CTL MCI vs AD MCI vs CTL PD vs CTL
ADNI-PET PPMI-DAT
KDE
MVN
Orig
Escenario
Base de datos
Precisión
Figure 36: Rendimiento en clasificación de imágenes originales y sintéticas
bajo el experimento 1 (capacidad predictiva de las imágenes sintéticas), para
PPMI-DAT y ADNI-PET, en función del método de modelado. Se muestra VAF
de la base original para comparación.
90
Base
de datos
original
Validación cruzada
TRAINING
SET (ORIG)
SVM
Experimento 2
Entrenamiento
Test
TEST SET
(SINTÉTICO)
Test
(resubstitución)
Estimación
de la
precisión
(resubstitución)
Estimación
de la
precisión
Experimento 2: Independencia de las imágenes
sintéticas
Experimento 2
0.5
0.6
0.7
0.8
0.9
1.0
AD vs CTL MCI vs AD MCI vs CTL PD vs CTL
ADNI-PET PPMI-DAT
KDE
MVN
Orig
Escenario
Base de datos
Precisión
Figure 37: Rendimiento en clasificación de imágenes originales y sintéticas
bajo el experimento 2 (independencia de las mágenes sintéticas), para
PPMI-DAT y ADNI-PET, en función del método de modelado.
91
Conclusions
• Different algorithms to tackle the Small Sample Size problem.
• Decomposition: A significant computational load reduction.
Similar pattern detection in images of AD and PD. Very
generalizable systems (low dimensionality). Nuclear imaging
and smoothed structural imaging.
• Texture: Very accurate detection of PD. Differences in shape
(cluster tendency) and radiopharmaceutical distribution
(homogeneity). Pooling all → up to 97% accuracy in PPMI-DAT.
• SBM: Novel technique. Original measures (average or VRLBP)
achieve >90% accuracy in AD diagnosis. Preliminary results of
77.6% in MCI conversion. HMM paths good for morphology or
segmentation, but not for feature selection.
93
Conclusions
• SWPCA: Solving a common multi-centre study problem:
acquisition-related inhomogeneities larger than group
differences.
• We found that that could be a possible source of false positives
in ASD studies. ASD heterogeneity or lack of structural
differences.
• Synthesis: Massive generation of brain images sharing
characteristics with the original dataset. These images can
predict real-world images and at the same time, be independent
from the original image set.
• All these algorithms and frameworks are complementary.
Mixture of feature extraction and sample increasing strategies.
94
Trabajo futuro
Dos líneas fundamentales:
• Profundizar en marcadores de progresión de neurodegeneración
en imágenes estructurales.
• Análisis de redes funcionales en fMRI.
95
Questions?
95

Más contenido relacionado

Similar a Tesis: Statistical Neuroimage Modeling, Processing and Synthesis based on Texture and Component Analysis

Sistemas Híbridos centrados en la Lógica Difusa para el Diagnóstico de la enf...
Sistemas Híbridos centrados en la Lógica Difusa para el Diagnóstico de la enf...Sistemas Híbridos centrados en la Lógica Difusa para el Diagnóstico de la enf...
Sistemas Híbridos centrados en la Lógica Difusa para el Diagnóstico de la enf...
John Diaz
 
Correlación entre el volumen cerebral y el desempeño neurognitivo en paciente...
Correlación entre el volumen cerebral y el desempeño neurognitivo en paciente...Correlación entre el volumen cerebral y el desempeño neurognitivo en paciente...
Correlación entre el volumen cerebral y el desempeño neurognitivo en paciente...
Jessica Morán La Literata
 
Presentación BCI MAEB 2012
Presentación BCI MAEB 2012Presentación BCI MAEB 2012
Presentación BCI MAEB 2012
gustavo_romero
 
Pre-procesado y análisis no lineal de neuroimagen
Pre-procesado y análisis no lineal de neuroimagenPre-procesado y análisis no lineal de neuroimagen
Pre-procesado y análisis no lineal de neuroimagen
Iñigo Sánchez Méndez
 
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptxMETODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
Lisabeth5
 
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptxMETODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
Lisabeth5
 
Inteligencia artificial para detectar el cáncer de mama
Inteligencia artificial para  detectar el cáncer de mamaInteligencia artificial para  detectar el cáncer de mama
Inteligencia artificial para detectar el cáncer de mama
Plain Concepts
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
CarlosGarcia2174
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)
ESCOM
 
[Code Camp 2009] Aplicaciones de .NET en la medicina (Armando A. Meabe)
[Code Camp 2009] Aplicaciones de .NET en la medicina (Armando A. Meabe)[Code Camp 2009] Aplicaciones de .NET en la medicina (Armando A. Meabe)
[Code Camp 2009] Aplicaciones de .NET en la medicina (Armando A. Meabe)
Microsoft Argentina y Uruguay [Official Space]
 
La gestión de riesgos y las redes neuronales
La gestión de riesgos y las redes neuronalesLa gestión de riesgos y las redes neuronales
La gestión de riesgos y las redes neuronales
Oscar Felipe Camacho Carrillo
 
Datamining y Machine Learning para Ciencias Biológicas
Datamining y Machine Learning para Ciencias BiológicasDatamining y Machine Learning para Ciencias Biológicas
Datamining y Machine Learning para Ciencias Biológicas
Carlos Manuel Estévez-Bretón Riveros
 
Telestimulacion EM
Telestimulacion EMTelestimulacion EM
secuencias ron en neuro estimulacion profunda
secuencias ron en neuro estimulacion profundasecuencias ron en neuro estimulacion profunda
secuencias ron en neuro estimulacion profunda
julian duque
 
ANÁLISIS DEL HISTORIAL DOSIMÉTRICO DEL PERSONAL OCUPACIONALMENTE EXPUESTO DEL...
ANÁLISIS DEL HISTORIAL DOSIMÉTRICO DEL PERSONAL OCUPACIONALMENTE EXPUESTO DEL...ANÁLISIS DEL HISTORIAL DOSIMÉTRICO DEL PERSONAL OCUPACIONALMENTE EXPUESTO DEL...
ANÁLISIS DEL HISTORIAL DOSIMÉTRICO DEL PERSONAL OCUPACIONALMENTE EXPUESTO DEL...
Thomas Viscovich
 
Neurointensivista, Rebagliati Hospital
Neurointensivista, Rebagliati HospitalNeurointensivista, Rebagliati Hospital
Neurointensivista, Rebagliati Hospital
Nilia Yoly Abad Quispe
 
08 ajuste de_una_recta_por_minimos_cuadrados
08 ajuste de_una_recta_por_minimos_cuadrados08 ajuste de_una_recta_por_minimos_cuadrados
08 ajuste de_una_recta_por_minimos_cuadrados
Edwin Martinez Sosa
 
08 ajuste de_una_recta_por_minimos_cuadrados
08 ajuste de_una_recta_por_minimos_cuadrados08 ajuste de_una_recta_por_minimos_cuadrados
08 ajuste de_una_recta_por_minimos_cuadrados
Ronald Flores Mamani
 
Presentación final
Presentación finalPresentación final
Presentación final
Cristhian Estrada Guardado
 
Desarrollo de software de Inteligencia Artificial
Desarrollo de software de Inteligencia ArtificialDesarrollo de software de Inteligencia Artificial
Desarrollo de software de Inteligencia Artificial
Patricio Palma
 

Similar a Tesis: Statistical Neuroimage Modeling, Processing and Synthesis based on Texture and Component Analysis (20)

Sistemas Híbridos centrados en la Lógica Difusa para el Diagnóstico de la enf...
Sistemas Híbridos centrados en la Lógica Difusa para el Diagnóstico de la enf...Sistemas Híbridos centrados en la Lógica Difusa para el Diagnóstico de la enf...
Sistemas Híbridos centrados en la Lógica Difusa para el Diagnóstico de la enf...
 
Correlación entre el volumen cerebral y el desempeño neurognitivo en paciente...
Correlación entre el volumen cerebral y el desempeño neurognitivo en paciente...Correlación entre el volumen cerebral y el desempeño neurognitivo en paciente...
Correlación entre el volumen cerebral y el desempeño neurognitivo en paciente...
 
Presentación BCI MAEB 2012
Presentación BCI MAEB 2012Presentación BCI MAEB 2012
Presentación BCI MAEB 2012
 
Pre-procesado y análisis no lineal de neuroimagen
Pre-procesado y análisis no lineal de neuroimagenPre-procesado y análisis no lineal de neuroimagen
Pre-procesado y análisis no lineal de neuroimagen
 
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptxMETODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
 
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptxMETODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
METODOS DE ESTUDIO Y MEDICION EN NEUROCIENCIAS.pptx
 
Inteligencia artificial para detectar el cáncer de mama
Inteligencia artificial para  detectar el cáncer de mamaInteligencia artificial para  detectar el cáncer de mama
Inteligencia artificial para detectar el cáncer de mama
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)
 
[Code Camp 2009] Aplicaciones de .NET en la medicina (Armando A. Meabe)
[Code Camp 2009] Aplicaciones de .NET en la medicina (Armando A. Meabe)[Code Camp 2009] Aplicaciones de .NET en la medicina (Armando A. Meabe)
[Code Camp 2009] Aplicaciones de .NET en la medicina (Armando A. Meabe)
 
La gestión de riesgos y las redes neuronales
La gestión de riesgos y las redes neuronalesLa gestión de riesgos y las redes neuronales
La gestión de riesgos y las redes neuronales
 
Datamining y Machine Learning para Ciencias Biológicas
Datamining y Machine Learning para Ciencias BiológicasDatamining y Machine Learning para Ciencias Biológicas
Datamining y Machine Learning para Ciencias Biológicas
 
Telestimulacion EM
Telestimulacion EMTelestimulacion EM
Telestimulacion EM
 
secuencias ron en neuro estimulacion profunda
secuencias ron en neuro estimulacion profundasecuencias ron en neuro estimulacion profunda
secuencias ron en neuro estimulacion profunda
 
ANÁLISIS DEL HISTORIAL DOSIMÉTRICO DEL PERSONAL OCUPACIONALMENTE EXPUESTO DEL...
ANÁLISIS DEL HISTORIAL DOSIMÉTRICO DEL PERSONAL OCUPACIONALMENTE EXPUESTO DEL...ANÁLISIS DEL HISTORIAL DOSIMÉTRICO DEL PERSONAL OCUPACIONALMENTE EXPUESTO DEL...
ANÁLISIS DEL HISTORIAL DOSIMÉTRICO DEL PERSONAL OCUPACIONALMENTE EXPUESTO DEL...
 
Neurointensivista, Rebagliati Hospital
Neurointensivista, Rebagliati HospitalNeurointensivista, Rebagliati Hospital
Neurointensivista, Rebagliati Hospital
 
08 ajuste de_una_recta_por_minimos_cuadrados
08 ajuste de_una_recta_por_minimos_cuadrados08 ajuste de_una_recta_por_minimos_cuadrados
08 ajuste de_una_recta_por_minimos_cuadrados
 
08 ajuste de_una_recta_por_minimos_cuadrados
08 ajuste de_una_recta_por_minimos_cuadrados08 ajuste de_una_recta_por_minimos_cuadrados
08 ajuste de_una_recta_por_minimos_cuadrados
 
Presentación final
Presentación finalPresentación final
Presentación final
 
Desarrollo de software de Inteligencia Artificial
Desarrollo de software de Inteligencia ArtificialDesarrollo de software de Inteligencia Artificial
Desarrollo de software de Inteligencia Artificial
 

Último

Programa Activa Ciberseguridad - EOI.pptx
Programa Activa Ciberseguridad - EOI.pptxPrograma Activa Ciberseguridad - EOI.pptx
Programa Activa Ciberseguridad - EOI.pptx
EOI Escuela de Organización Industrial
 
diapositiva de sustentación de anteproyecto
diapositiva de sustentación de anteproyectodiapositiva de sustentación de anteproyecto
diapositiva de sustentación de anteproyecto
MariSkySanchez
 
Intersecciones Generación Digital Activa Industria 4.0 - EOI
Intersecciones Generación Digital Activa Industria 4.0 - EOIIntersecciones Generación Digital Activa Industria 4.0 - EOI
Intersecciones Generación Digital Activa Industria 4.0 - EOI
EOI Escuela de Organización Industrial
 
estudio de LOS MORMONES santos de los ultimos tiempos
estudio de LOS MORMONES santos de los ultimos tiemposestudio de LOS MORMONES santos de los ultimos tiempos
estudio de LOS MORMONES santos de los ultimos tiempos
jonatandavilach
 
Luiz Friedheim - eRetail Day - Edición México 2024
Luiz Friedheim - eRetail Day - Edición México 2024Luiz Friedheim - eRetail Day - Edición México 2024
Luiz Friedheim - eRetail Day - Edición México 2024
eCommerce Institute
 
Conoce algunas de las entidades colaboradoras del Programa Activa Ciberseguridad
Conoce algunas de las entidades colaboradoras del Programa Activa CiberseguridadConoce algunas de las entidades colaboradoras del Programa Activa Ciberseguridad
Conoce algunas de las entidades colaboradoras del Programa Activa Ciberseguridad
EOI Escuela de Organización Industrial
 
Yesenia Rodríguez - eRetail Day - Edición México 2024
Yesenia Rodríguez - eRetail Day - Edición México 2024Yesenia Rodríguez - eRetail Day - Edición México 2024
Yesenia Rodríguez - eRetail Day - Edición México 2024
eCommerce Institute
 
Jorge Defeo - eRetail Day - Edición México 2024
Jorge Defeo - eRetail Day - Edición México 2024Jorge Defeo - eRetail Day - Edición México 2024
Jorge Defeo - eRetail Day - Edición México 2024
eCommerce Institute
 
Raúl Cornejo Díaz González - eRetail Day - Edición México 2024
Raúl Cornejo Díaz González - eRetail Day - Edición México 2024Raúl Cornejo Díaz González - eRetail Day - Edición México 2024
Raúl Cornejo Díaz González - eRetail Day - Edición México 2024
eCommerce Institute
 
Moisés Hamui Abadi, Gerardo Morera - eRetail Day - Edición México 2024
Moisés Hamui Abadi, Gerardo Morera - eRetail Day - Edición México 2024Moisés Hamui Abadi, Gerardo Morera - eRetail Day - Edición México 2024
Moisés Hamui Abadi, Gerardo Morera - eRetail Day - Edición México 2024
eCommerce Institute
 
Más que Propiedad Industrial: Ponencia para la clausura del "Curso de especia...
Más que Propiedad Industrial: Ponencia para la clausura del "Curso de especia...Más que Propiedad Industrial: Ponencia para la clausura del "Curso de especia...
Más que Propiedad Industrial: Ponencia para la clausura del "Curso de especia...
Eneko Izquierdo Ereño
 
La importancia de hacer una buena gestión de la ciberseguridad - Juan Caubet ...
La importancia de hacer una buena gestión de la ciberseguridad - Juan Caubet ...La importancia de hacer una buena gestión de la ciberseguridad - Juan Caubet ...
La importancia de hacer una buena gestión de la ciberseguridad - Juan Caubet ...
EOI Escuela de Organización Industrial
 

Último (12)

Programa Activa Ciberseguridad - EOI.pptx
Programa Activa Ciberseguridad - EOI.pptxPrograma Activa Ciberseguridad - EOI.pptx
Programa Activa Ciberseguridad - EOI.pptx
 
diapositiva de sustentación de anteproyecto
diapositiva de sustentación de anteproyectodiapositiva de sustentación de anteproyecto
diapositiva de sustentación de anteproyecto
 
Intersecciones Generación Digital Activa Industria 4.0 - EOI
Intersecciones Generación Digital Activa Industria 4.0 - EOIIntersecciones Generación Digital Activa Industria 4.0 - EOI
Intersecciones Generación Digital Activa Industria 4.0 - EOI
 
estudio de LOS MORMONES santos de los ultimos tiempos
estudio de LOS MORMONES santos de los ultimos tiemposestudio de LOS MORMONES santos de los ultimos tiempos
estudio de LOS MORMONES santos de los ultimos tiempos
 
Luiz Friedheim - eRetail Day - Edición México 2024
Luiz Friedheim - eRetail Day - Edición México 2024Luiz Friedheim - eRetail Day - Edición México 2024
Luiz Friedheim - eRetail Day - Edición México 2024
 
Conoce algunas de las entidades colaboradoras del Programa Activa Ciberseguridad
Conoce algunas de las entidades colaboradoras del Programa Activa CiberseguridadConoce algunas de las entidades colaboradoras del Programa Activa Ciberseguridad
Conoce algunas de las entidades colaboradoras del Programa Activa Ciberseguridad
 
Yesenia Rodríguez - eRetail Day - Edición México 2024
Yesenia Rodríguez - eRetail Day - Edición México 2024Yesenia Rodríguez - eRetail Day - Edición México 2024
Yesenia Rodríguez - eRetail Day - Edición México 2024
 
Jorge Defeo - eRetail Day - Edición México 2024
Jorge Defeo - eRetail Day - Edición México 2024Jorge Defeo - eRetail Day - Edición México 2024
Jorge Defeo - eRetail Day - Edición México 2024
 
Raúl Cornejo Díaz González - eRetail Day - Edición México 2024
Raúl Cornejo Díaz González - eRetail Day - Edición México 2024Raúl Cornejo Díaz González - eRetail Day - Edición México 2024
Raúl Cornejo Díaz González - eRetail Day - Edición México 2024
 
Moisés Hamui Abadi, Gerardo Morera - eRetail Day - Edición México 2024
Moisés Hamui Abadi, Gerardo Morera - eRetail Day - Edición México 2024Moisés Hamui Abadi, Gerardo Morera - eRetail Day - Edición México 2024
Moisés Hamui Abadi, Gerardo Morera - eRetail Day - Edición México 2024
 
Más que Propiedad Industrial: Ponencia para la clausura del "Curso de especia...
Más que Propiedad Industrial: Ponencia para la clausura del "Curso de especia...Más que Propiedad Industrial: Ponencia para la clausura del "Curso de especia...
Más que Propiedad Industrial: Ponencia para la clausura del "Curso de especia...
 
La importancia de hacer una buena gestión de la ciberseguridad - Juan Caubet ...
La importancia de hacer una buena gestión de la ciberseguridad - Juan Caubet ...La importancia de hacer una buena gestión de la ciberseguridad - Juan Caubet ...
La importancia de hacer una buena gestión de la ciberseguridad - Juan Caubet ...
 

Tesis: Statistical Neuroimage Modeling, Processing and Synthesis based on Texture and Component Analysis

  • 1. Statistical Neuroimage Modeling, Processing and Synthesis based on Texture and Component Analysis Tackling the Small Sample Size Problem Francisco Jesús Martínez Murcia 1 de Junio de 2017 Directores: Javier Ramírez Pérez de Inestrosa Juan Manuel Górriz Sáez
  • 2. Tabla de contenidos 1. Introducción Motivación Estado del arte Metodología general 2. Reducción del espacio de características Descomposición de imágenes Análisis de texturas Spherical Brain Mapping 3. Aumento del tamaño de la muestra Significance-Weighted PCA (SWPCA) Síntesis de imagenes 4. Conclusions Conclusions 2
  • 3. Motivación • El uso de neuroimagen se ha incrementado exponencialmente en los últimos años. • Los estudios se basan en análisis estadísticos de poblaciones diferenciadas. • En esta tarea, el procesado de neuroimagen mediante computadores es fundamental, pudiendo extraer información relevante, e incluso predecir una enfermedad. • Problema: Problema del pequeño tamaño de la muestra, o Small Sample Size Problem. 4
  • 4. Motivación El Small Sample Size Problem, o problema del pequeño tamaño de la muestra. En neuroimagen, >500.000 características → espacios casi vacíos → resultados poco generalizables. 5
  • 5. Objetivos Objetivo principal Contribuir con nuevas estrategias para solucionar el problema del pequeño tamaño de la muestra en neuroimagen. Objetivo 1 Proveer nuevas estrategias para reducir el espacio de características sin pérdida de información. Objetivo 2 Desarrollar nuevos sistemas para aumentar el tamaño de la muestra. 6
  • 6. Objetivos Hemos aportado varias contribuciones para cada uno de los objetivos descritos, que se han distribuído de la siguiente manera: REDUCIR EL ESPACIO DE CARACTERÍSTICAS DIAGNÓSTICO ASISTIDO POR COMPUTADOR SÍNTESIS DE IMÁGENES Capítulo 8 FUSIÓN DE DATASETS Capítulo 7 MAPEO ESFÉRICO Capítulo 6 ANÁLISIS DE TEXTURA Capítulo 5 DESCOMPOSICIÓN DE IMAGEN Capítulo 4 AUMENTAR TAMAÑO ABORDANDO EL PROBLEMA DEL PEQUEÑO TAMAÑO DE LA MUESTRA 7
  • 7. Patologías • Enfermedad de Alzheimer (AD) y Parkinsonismo (PKS) son las enfermedades neurodegenerativas con mayor prevalencia. → Procesos de neurodegeneración. • El Trastorno del Espectro Autista (ASD) es, por su parte, uno de los trastornos del neurodesarrollo que más atención recibe. → Causas desconocidas. • Además de historial, test neurocognitivos (MMSE, ADAS) y sintomatología clínica, cada vez se estudian más marcadores relacionados con neuroimagen. 9
  • 8. Biomarcadores En AD: • Atrofia cerebral en imagen resonancia magnética (MRI). • Hipometabolismo y aparición de placas de amiloide en tomografía por emisión de positrones (PET). • Hipoperfusión sanguínea en tomografía computarizada por emisión monofotónica (SPECT). NORMAL MCI AD 10
  • 9. Biomarcadores En PKS: • Radioligandos como 123 I FP-CIT (DaTSCAN) en SPECT, que permiten observar la distribución de transportadores de dopamina en el estriado. En ASD: • Evidencia contradictoria en MRI. CTL PD PD 11
  • 10. Machine learning en neuroimagen • Machine learning permite que los computadores aprendan a partir de datos → identificar patrones, explorar estructuras y realizar predicciones. • En medicina, Computer Aided Diagnosis (CAD), sistemas de ayuda al diagnóstico. NEUROIMAGING 01 02 03 High dimensional brain data, labeled by experts. FEATURE EXTRACTION Extract features from the images DIAGNOSIS Train a model and predict labels of unseen data 04 FEATURE SELECTION Select best features SISTEMAS CAD Generalmente, los sistemas CAD consisten en cuatro pasos: adquisición y preprocesado, extracción de características, selección de características y clasificación 12
  • 11. Sistemas CAD • Voxels as features (VAF)1 : el CAD más simple. Voxels como características de un clasificador. • Extracción de características: creación de nuevas características inherentes a los datos: • Espesor cortical (FreeSurfer)2 • Descomposición PCA3 • Otras descomposiciones (ICA, EMD, PLS)4 . 1Stoeckel J., Fung G. (2005). SVM feature selection for classification of spect images of Alzheimer’s disease using spatial information 2Young Noh et al (2014). Anatomical heterogeneity of Alzheimer disease based on cortical thickness on MRIs. Neurology 3Mudali et al (2015). Classification of Parkinsonian Syndromes from FDG-PET Brain Data Using Decision Trees with SSM/PCA Features. Computational and Mathematical Methods in Medicine. 4I.A. Illan, et al (2011). 18 F-FDG PET imaging analysis for computer aided Alzheimer’s diagnosis. Information Sciences. 13
  • 12. Sistemas CAD • Extracción de características (continuación): • Análisis de texturas5 • Selección de características: selección de las más relevantes para la clasificación6 . • Clasificadores: bayesianos, SVM, decision trees, ensembles, etc 7 . 5L. Sørensen et al (2015). Early detection of Alzheimer’s disease using MRI hippocampal texture. Human Brain Mapping. 6B. Mwangi, et al (2014). A Review of Feature Reduction Techniques in Neuroimaging. Neuroinformatics 7D. Zhang, et al (2011). Multimodal classification of Alzheimer’s disease and mild cognitive impairment, NeuroImage 14
  • 13. Preprocesado Cauce general de preprocesado de neuroimagen estructural: Original Template Normalized Smoothed Segmented 16
  • 14. Registro (o normalización espacial) Transformación rígida (afín) con 12 parámetros que se asignan mediante la minimización de una función de coste. Ejemplo: el error cuadrático medio entre la imagen y la plantilla.      x′ y′ z′ 1      =      a00 a01 a02 a03 a10 a11 a12 a13 a20 a21 a22 a23 0 0 0 1           x y z 1      (1) Transformación no rígida (warping): adaptación de diferencias locales entre sujetos. Se estima una serie de campos de deformación y se aplican. 17
  • 15. Registro (o normalización espacial) ORIGINAL AFFINE NON-RIGID 18
  • 16. Segmentación GM WM • Clasificación de cada voxel como cada tipo de tejido (GM, WM, CSF y otros). • Combinación de una estimación de distribución como mezcla de gaussianas con los mapas a priori para producir mapas de probabilidad a posteriori para cada tejido. • Dilatación y erosión iterativa de mapas para limpieza. • Modulación → Escalado de los mapas para que la cantidad total de tejido se preserve. 19
  • 17. Normalización en intensidad Fórmula general para realizar la transformación de intensidades: I′ = aI + b (2) En esta tesis: normalización al máximo y normalización integral. (a) (b) Normalización al Máximo1 Sin normalización (c) Normalización Integral1 1 I.A. Illan et al (2012). Automatic assistance to Parkinsonˈs disease diagnosis in DaTSCAN SPECT imaging. Medical Physics 20
  • 18. Evaluación de los sistemas Clasificador: Support Vector Machine lineal. Evaluación: 10-Fold estratificado. Training Set Training Folds Test Folds 1ª Iteración 2ª Iteración 3ª Iteración 10ª Iteración E1 E2 E3 E10 E 21
  • 19. Evaluación: Parámetros Predicción Positivo Negativo Real Positivo Verd. Positivo Falso Positivo Negativo Falso Negativo Verd. Negativo Table 1: Matriz de confusión acc = TP + TN TP + TN + FP + FN (3) sens = TP TP + FN spec = TN TN + FP (4) 22
  • 20. Evaluación: Bases de Datos Hospital Virgen de la Victoria Hospital Virgen de las Nieves 23
  • 21. Descomposición de imágenes • En esta sección exploramos una serie de sistemas CAD8910 que combina algoritmos de selección y descomposición de características aplicados al diagnóstico de AD y PKS. 8F.J. Martinez-Murcia et al (2012). Computer aided diagnosis tool for Alzheimer’s disease based on Mann–Whitney–Wilcoxon U-test. Expert Systems with Applications. 9F.J. Martinez-Murcia et al (2013). Functional activity maps based on significance measures and Independent Component Analysis. Computer methods and programs in biomedicine. 10F.J. Martinez-Murcia et al (2014). Automatic detection of Parkinsonism using significance measures and component analysis in DaTSCAN imaging. Neurocomputing 25
  • 23. Selección de características t-Test two-sample t-test, cuantifica diferencias entre dos clases, asumiendo varianzas independientes. Se asume distribución normal. t = µ1−µ2√ σ2 2 +σ2 1 n Entropía relativa Medida no simétrica de diferencias entre dos distribuciones de probabilidad. RE = ( σ2 2/σ2 1 + σ2 1/σ2 2 − 2 ) + 1 2 (µ2 − µ1)2 ( 1/σ2 1 + 1/σ2 2 ) Mann-Whitney-Wilcoxon U-test Medida no paramétrica, basada en el ranking de las características y asignación de valores. Bajo distribución normal similar al t-test. 26
  • 25. Descomposición de características Ecuación general de la descomposición lineal: xi = s0w0 + s1w1 + · · · + scwc + ϵ = sW + ϵ (5) En esta tesis: Análisis de factores (FA) y Análisis de componentes independientes (ICA). 27
  • 26. Descomposición: Factor Analysis Reescribimos la Eq. 5 asumiendo que X está centrada en 0: X − µ = SW + ϵ (6) Asumimos: • W y ϵ son independientes. • E[W] = 0. • Cov(W) = I, lo que asegura que los factores no están correlados. • Conocemos c, el número de componentes a estimar. La estimación se realiza via Maximum Likelihood y está más detallada en la memoria. 28
  • 27. Descomposición: Independent Component Analysis Teorema central del límite La distribución de una combinación lineal de variables independientes es más gaussiana que las variables originales Es posible estimar una de estas variables minimizando la gaussianidad. El conjunto de señales finales está de nuevo representado por: X = WS (7) Usamos FastICA, un algoritmo neuronal que usa una regla de aprendizaje para calcular iterativamente wc de modo que w′ c × xi maximice la no-gaussianidad. FastICA se basa en entropía negativa para medir la no-gaussianidad. 29
  • 29. Experimentos • Vamos a probar las diferentes combinaciones de métodos de selección y extracción de características en cada una de las bases de datos funcionales que utilizamos: • Bases de datos: ADNI-PET y VDLN-HMPAO (para AD), y PPMI-DAT, VDLN-DAT y VDLV-DAT (para PKS). • Métodos de selección: t-test, relative entropy y Mann-Whitney Wilcoxon. • Métodos de extracción: Factor Analysis e ICA. 30
  • 30. Resultados (AD): rendimiento en clasificación Método de descomposición Figure 1: Precisión en función del método de selección y decomposición de características con 5 componentes, utilizando las dos bases de datos de AD. 31
  • 31. Resultados (AD): regiones más significativas 0 2 4 6 8 10 (a) t-test. 0.0 0.5 1.0 1.5 2.0 2.5 (b) Relative entropy. 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 (c) Wilcoxon. Figure 2: Comparación entre los diferentes métodos de filtrado, y las regiones donde la diferencia en metabolismo de glucosa es más significativa, en la base de datos ADNI-PET. 32
  • 32. Resultados (PKS): rendimiento en clasificación Método de descomposición Figure 3: Precisión en función del método de selección y decomposición de características para 5 componentes, en las tres bases de datos de PKS. 33
  • 33. Resultados (PKS): regiones más significativas 0 2 4 6 8 10 12 14 16 (a) t-test. 0 1 2 3 4 5 (b) Relative entropy. 0.000 0.001 0.002 0.003 0.004 0.005 (c) MWW U-test. Figure 4: Comparación entre los diferentes métodos de filtrado, y las regiones donde el déficit de DAT es más significativo en PPMI-DAT. 34
  • 34. Análisis de texturas La información sobre textura es ampliamente utilizada en reconocimiento de patrones. Construimos un CAD11 que utiliza características de textura para el diagnóstico de PD (no incluye SWEDD). 11F.J. Martinez-Murcia et al (2013). Parametrization of textural patterns in 123I-ioflupane imaging for the automatic detection of Parkinsonism. Medical Physics. 36
  • 36. Extracción de subvolúmenes 0 20 40 60 0 10 20 30 40 50 60 70 Ith = 0.25 0 20 40 0 10 20 30 40 50 60 Ith = 0.30 0 10 20 30 40 0 10 20 Ith = 0.35 px,min = arg min x (I > Ith) (8) px,max = arg max x (I > Ith) (9) Isub = I[px,min : px,max, py,min : py,max, pz,min : pz,max] (10) 37
  • 38. Análisis de Textura de Haralick C∆(i, j) = (n,m,k) ∑ p=(1,1,1) { 1, si I(p) = i y I(p + ∆) = j 0, en otro caso (11) i j i j • Mide las frecuencias de pares de valores de grises a diferentes distancias y direcciones d ˆ∆. • Cuantización. • Matriz de probabilidades P(i, j) = C∆(i,j)∑ i,j C∆(i,j) para calcular características. 38
  • 39. Características de Haralick Energy = ∑ i ∑ j P(i, j)2 (12) Correlation = ∑ i ∑ j ijP(i,j)−µxµy σxσy (13) Contrast = Ng−1∑ n=0 n2 { ∑ |i−j|=n P(i, j) } (14) Sum Mean = 1 2 ∑ i ∑ j (iP(i, j) + jP(i, j)) (15) Cluster Shade = ∑ i ∑ j (i + j − µx − µy)3 P(i, j) (16) Cluster Tendency = ∑ i ∑ j {i + j − µx − µy}4 P(i, j) (17) Homogeneity = ∑ i ∑ j P(i,j) 1+|i−j| (18) 39
  • 41. Experimentos • Experimento 1: Umbral óptimo de definición de subvolumen. • Experimento 2: Habilidad de cada característica de textura para diferenciar entre PD y CTLs. • Dos modos de variación de distancia en la GLCM: single (individual) y cumulative (acumulativa). • Experimento 3: Selección de características de textura. 40
  • 43. Experimento 1: Umbral óptimo 0.0 0.1 0.2 0.3 0.4 0.5 Ith 0.78 0.80 0.82 0.84 0.86 0.88 0.90 0.0 0.1 0.2 0.3 0.4 0.5 Ith 0.78 0.80 0.82 0.84 0.86 0.88 0.0 0.1 0.2 0.3 0.4 0.5 Ith 0.78 0.80 0.82 0.84 0.86 0.88 0.90 Accuracy 0.0 0.1 0.2 0.3 0.4 0.5 Ith 0.76 0.78 0.80 0.82 0.84 0.86 0.0 0.1 0.2 0.3 0.4 0.5 Ith 0.76 0.78 0.80 0.82 0.84 0.0 0.1 0.2 0.3 0.4 0.5 Ith 0.76 0.78 0.80 0.82 0.84 0.86 Accuracy PPMI-DAT VDLN-DAT VDLV-DAT Average accuracy vs. Ith sin normalizar (single) norm. al máximo (single) normalización integral (single) sin normalizar (cumulative) norm. al máximo (cumulative) normalización integral (cumulative) Figure 5: Precisión obtenida al promediar todos los valores de precisión obtenidos con un umbral de selección de volumen Ith para cada base de datos, método de normalización y distribución de distancias de la GLCM. 41
  • 44. Experimento 1: Umbral óptimo 0 20 40 60 0 10 20 30 40 50 60 70 Ith = 0.25 0 20 40 0 10 20 30 40 50 60 Ith = 0.30 0 10 20 30 40 0 10 20 Ith = 0.35 Figure 6: Volúmenes seleccionados con diferentes umbrales de selección en la base de datos PPMI-DAT. 42
  • 46. Experimento 2: características de textura 0.4 0.6 0.8 Accuracy Energy Entropy Correlation Contrast Variance SumMean Inertia ClusterShade ClusterTendency Homogeneity MaxProbability InverseVariance Feature PPMI­DAT normmax normno 0.4 0.6 0.8 Accuracy VDLN­DAT 0.4 0.6 0.8 Accuracy VDLV­DAT Figure 7: Violin plot: distribución de las precisiones obtenidas al variar la dirección y distancia de cálculo de la GLCM para cada característica de textura, método de normalización y base de datos (single). 43
  • 47. Experimento 2: características de textura 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 1.00 Integral Maximum Original Integral Maximum Original Integral Maximum Original PPMI-DAT VDLN-DAT VDLV-DAT single cumulative Normalización Base de datos Precisión Figure 8: Precisión máxima obtenida por el sistema utilizando la característica Cluster Tendency, en imágenes normalizadas al máximo en las aproximaciones single y cumulative. 44
  • 48. Experimento 3: selección de características
  • 49. Experimento 3: selección de características 0.0 0.2 0.4 0.6 0.8 1.0 Proportion of selected voxels 0.75 0.80 0.85 0.90 0.95 1.00 Accuracy 0.0 0.2 0.4 0.6 0.8 1.0 Proportion of selected voxels 0.75 0.80 0.85 0.90 0.95 1.00 ttest entropy wilcoxon 0.0 0.2 0.4 0.6 0.8 1.0 Proportion of selected voxels 0.75 0.80 0.85 0.90 0.95 1.00 Accuracy PPMI-DAT VDLV-DAT VDLN-DAT Figure 9: Precisión promedio obtenida para cada método de selección de características en función del número de características seleccionadas, para las tres bases de datos DaTSCAN. 45
  • 50. Experimento 3: selección de características Legend Normalización Base de datos Precisión Figure 10: Máxima precisión (obtenida con diferente número de características seleccionadas) para los distintos métodos de selección, normalización y bases de datos. 46
  • 51. Introducción Proyección de imágenes 3D a mapas 2D representando características de textura radiales, construidas sobre caminos rectilíneos 12 o caminos que se adaptan a la estructura cerebral 13 MRI Brain Images Tissue Segmentation Classification (SVM) Feature Selection 12F.J. Martinez-Murcia et al (2016). A Spherical Brain Mapping of MR Images for the Detection of Alzheimer’s Disease. Current Alzheimer Research. 13F.J. Martinez-Murcia et al (2016). A Structural Parametrization of the Brain Using Hidden Markov Models-Based Paths in Alzheimer’s Disease. International Journal of Neural Systems. 48
  • 53. Spherical Brain Mapping Figure 11: Ilustración del cómputo del vector de mapeo vθ,φ, en los ángulos θ y φ y la vecindad de radio r de v. El vector de mapeo selecciona las intensidades de los voxels que cruza, en el conjunto Vθ,φ. 49
  • 54. Spherical Brain Mapping Surface vsurf = arg max i {Vθ,φ(i) > Ith} (19) Number of Folds the number of disjoint connected subsets in Aθ,φ: Aθ,φ = {i / Vθ,φ(i) > Ith} (20) Thickness vthick = arg max i {Vθ,φ(i) > Ith} − arg min i {Vθ,φ(i) > Ith} Average vav = 1 N ∑ i Vθ,φ(i) (21) Entropy vent = ∑ i Vθ,φ(i) ∗ log(Vθ,φ(i)) (22) Kurtosis vkurt = 1 N ∑ i ( Vθ,φ(i) − ¯Vθ,φ(i) )4 ( 1 N ∑ i ( Vθ,φ(i) − ¯Vθ,φ(i) )2 )2 (23) 50
  • 55. Ejemplos GM Average (GM) 50 100 150 200 250 300 350 50 100 150 Kurtosis (GM) 50 100 150 200 250 300 350 50 100 150 Entropy (GM) 50 100 150 200 250 300 350 50 100 150 Num.Fold (GM) 50 100 150 200 250 300 350 50 100 150 Surface (GM) 50 100 150 200 250 300 350 50 100 150 Thickness (GM) 50 100 150 200 250 300 350 50 100 150 Figure 12: Ejemplos de las diferentes medidas SBM sobre mapas GM segmentados. 51
  • 56. Ejemplos WM Average (WM) 50 100 150 200 250 300 350 50 100 150 Kurtosis (WM) 50 100 150 200 250 300 350 50 100 150 Entropy (WM) 50 100 150 200 250 300 350 50 100 150 Num.Fold (WM) 50 100 150 200 250 300 350 50 100 150 Surface (WM) 50 100 150 200 250 300 350 50 100 150 Thickness (WM) 50 100 150 200 250 300 350 50 100 150 Figure 13: Ejemplos de las diferentes medidas SBM sobre mapas WM segmentados. 52
  • 57. Extension en capas 1 2 3 4 50 100 150 200 250 300 350 20 40 60 80 100 120 140 160 180 50 100 150 200 250 300 350 20 40 60 80 100 120 140 160 180 50 100 150 200 250 300 350 20 40 60 80 100 120 140 160 180 50 100 150 200 250 300 350 20 40 60 80 100 120 140 160 180 Capa 1 Capa 2 Capa 3 Capa 4 Figure 14: Ejemplo de los mapas SBM average para 4 capas sobre GM. Se aprecian el tálamo (capa 1), estructuras subcorticales del estriado e hipocampo (capa 2) y la corteza cerebral (capa 3 y 4). 53
  • 58. Volumetric Radial Local Binary Patterns VRLBP (GM) 50 100 150 200 250 300 350 50 100 150 VRLBP (WM) 50 100 150 200 250 300 350 50 100 150 54
  • 59. Caminos basados en modelos ocultos de Markov p1 p2 p3 pN p0 Figure 15: Ilustración de la selección de cada punto en función de las probabilidades P(I(pi)|pi) y P(pi|pN). 55
  • 60. Caminos basados en modelos ocultos de Markov Modelo oculto de markov primer orden Pθ,φ = {p0, p1, p2, . . . , pN} → parámetro oculto I(pi). Popt θ,φ = arg max Pθ,φ {P(Pθ,φ|I)} (24) P(Pθ,φ|I) = P(p0, . . . , pN|I(p0), . . . , I(pN)) (25) = P(I(p0), . . . , I(pN)|p0, . . . , pN) · P(p0, . . . , pN) P(I(p0), . . . , I(pN)) (26) Asumiendo que P(I(p0), . . . , I(pN)) es constante en todo el camino: P(Pθ,φ|I) = P(I(p0), . . . , I(pN)|p0, . . . , pN) · P(p0, . . . , pN) (27) P(I(p0), . . . , I(pN)|p0, . . . , pN) = ∏N i=1 P(I(pi)|pi) y P(p0, . . . , pN) = ∏N i=1 P(pi|pN) 56
  • 61. Caminos basados en modelos ocultos de Markov Figure 16: Ejemplo de los caminos HMM calculados sobre la plantilla DARTEL. 57
  • 62. GLCM y texturas sobre caminos Cálculo de la GLCM utilizando el camino entre pi−1 y pi como ∆. Extracción de características de Haralick. 0 50 100 150 200 250 300 350 0 25 50 75 100 125 150 175 Average 0 50 100 150 200 250 300 350 0 25 50 75 100 125 150 175 Variance 0 50 100 150 200 250 300 350 0 25 50 75 100 125 150 175 Entropy 0 50 100 150 200 250 300 350 0 25 50 75 100 125 150 175 Kurtosis 58
  • 64. Experimentos • Experimento 1: Mapas SBM y VRLBP originales con imágenes GM y WM segmentadas y su extensión por capas. Análisis de significancia y clasificación. • Experimento 2: Caminos basados en HMMs. Evaluación en datos simulados. • Experimento 3: Caminos basados en HMMs. Uso de caminos como selección de características, combinación de los sets de voxels seleccionados. Construcción de mapas HMM-SBM. Evaluación por clasificación. • Experimento 4: Análisis de texturas sobre los caminos basados en HMM. 59
  • 65. Experimento 1: Análisis de significancia en GM Average (GM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Entropy (GM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Kurtosis (GM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Num.Fold (GM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Surface (GM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Thickness (GM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Figure 17: Áreas más significativas en las diferentes medidas SBM obtenidas de los mapas GM. 60
  • 66. Experimento 1: Análisis de significancia en WM Average (WM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Entropy (WM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Kurtosis (WM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Num.Fold (WM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Surface (WM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Thickness (WM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Figure 18: Áreas más significativas en las diferentes medidas SBM obtenidas de los mapas WM. 61
  • 67. Experimento 1: Análisis de significancia (capas) Layer 1 50 100 150 200 250 300 350 20 40 60 80 100 120 140 160 180 Layer 2 50 100 150 200 250 300 350 20 40 60 80 100 120 140 160 180 Layer 3 50 100 150 200 250 300 350 20 40 60 80 100 120 140 160 180 Layer 4 50 100 150 200 250 300 350 20 40 60 80 100 120 140 160 180 −15 −10 −5 0 5 10 15 −15 −10 −5 0 5 10 15 −15 −10 −5 0 5 10 15 −15 −10 −5 0 5 10 15 Figure 19: Resultados del t-test en SBM average sobre mapas GM, utilizando cuatro capas. 62
  • 68. Experimento 1: Análisis de significancia (VRLBP) VRLBP (GM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 VRLBP (WM) 50 100 150 200 250 300 350 50 100 150 −10 −5 0 5 10 Figure 20: Áreas más significativas en los mapas VRLBP (GM y WM). 63
  • 69. Experimento 1: Clasificación Surface Thickness Num.Fold Average Entropy Kurtosis VRLBP VAF 0.0 0.2 0.4 0.6 0.8 1.0 Accuracy GM WM Figure 21: Precisión obtenida por un SVM lineal en cada una de las medidas SBM sobre mapas GM y WM, y comparadas con la aproximación VAF. 64
  • 70. Experimento 2: Ejemplos 200 400 600 800 1000 1200 1400 1600 100 200 300 400 500 600 700 800 900 1000 1100 0 500 1000 1500 2000 2500 3000 10 15 20 10 15 20 10 15 20 25 30 35 40 Data distribution HMM Path 20 40 60 80 100 120 140 20 40 60 80 100 120 Figure 22: Caminos HMM trazados sobre diferentes distribuciones 2D y 3D sintéticas y reales. 65
  • 71. Experimento 3: Caminos como selección de características 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 0.95 1 Figure 23: Precisión obtenida con el conjunto de intensidades Vθ,φ seleccionados por cada camino (en color). 66
  • 72. Experimento 3: Caminos como selección de características Selección Lado Precisión Sensibilidad Especificidad Todos I 0.769 ± 0.035 0.717 ± 0.061 0.822 ± 0.057 D 0.792 ± 0.080 0.706 ± 0.120 0.878 ± 0.101 - 0.806 ± 0.069 0.733 ± 0.073 0.878 ± 0.097 t-test I 0.733 ± 0.037 0.694 ± 0.099 0.772 ± 0.124 D 0.781 ± 0.085 0.711 ± 0.122 0.850 ± 0.083 - 0.828 ± 0.054 0.794 ± 0.095 0.861 ± 0.039 Table 2: Precisión usando todos los voxels seleccionados por los caminos HMM. 67
  • 73. Experimento 4: Características de textura 0.600 0.625 0.650 0.675 0.700 0.725 0.750 0.775 0.800 Precisión Energy Entropy Correlation Contrast Homogeneity Dissimilarity Difference Variance Difference Entropy IDN IDMN Característica Precisión de la clasificación Figure 24: Precisión de las diferentes características de Haralick calculadas a lo largo de cada camino HMM. 68
  • 74. Introducción El problema: alta heterogeneidad en estudios multicentro, debido a efectos del centro de adquisición. Falsos positivos. Propuesta: Eliminar efectos de sitio. Análisis en imágenes reconstruídas14 . qT1 qT2 synT1 WM GM DARTEL PCA normalized maps (X) site group ANOVA Λ(c) p-values loadings (W) scores (S) weights (Λ) analysis reconstructed maps (X) SWPCA scores (S) 14F.J. Martinez-Murcia et al (2016). On the brain structure heterogeneity of autism: Parsing out acquisition site effects with significance-weighted principal component analysis. Human Brain Mapping. 70
  • 76. Descomposición PCA Descomposicion S = XW−1 (28) Reconstrucción ˆX = SW (29) 71
  • 77. Estimación de significancia estadística, cálculo de pesos y reconstrucción
  • 78. SWPCA 1. Estimación del p-valor para cada componente usando ANOVA, en relación con el centro de adquisición y el grupo de cada imagen. 2. Cálculo de un coeficiente λc para cada componente. 0.0 0.2 0.4 0.6 0.8 1.0 p1 0.0 0.2 0.4 0.6 0.8 1.0 (p) Weighting Function λc(pc, pth) = 1 − e −pc pth ∀pc ∈ [0, 1] (30) 3. Reconstrucción pesada: X = SΛW con Λ = diag(λ0, . . . , λc). 72
  • 79. SWPCA CAM LON ¡ 3 ¡ 2 ¡ 1 0 1 2 3 4 1 (weight= 8.32E-01) CAM LON 2 (weight= 0.00E+ 00) CAM LON 3 (weight= 6.14E-06) CAM LON 4 (weight= 9.98E-01) Figure 25: Box-plot de la distribución de las diferentes componentes en cada centro de adquisición (AIMS-MRI). Asumimos que una mayor diferencia entre distribuciones implica una mayor influencia del centro de adquisición sobre ese componente, por lo que reducimos su contribución. 73
  • 80. qT1 qT2 synT1 WM GM DARTEL PCA normalized maps (X) site group ANOVA Λ(c) p-values loadings (W) scores (S) weights (Λ) analysis reconstructed maps (X) SWPCA scores (S) Experimentos
  • 81. Experimentos • Experimento 1: Efecto del centro de adquisición. Sitio como etiqueta, aplicando o no SWPCA. Análisis por clasificación y VBM. • Experimento 2: Diferencias entre grupos dentro de cada centro de adquisición. Rendimiento de un clasificador en las bases de datos CAM y LON. • Experimento 3: Efecto de SWPCA en las diferencias entre grupos. Análisis por clasificación y VBM. 74
  • 83. Experimento 1: Diferencias entre centros -9.3 -4.7 0 4.7 9.3 -5.9 -3 0 3 5.9- S -5.3 -2.7 0 2.7 5.3 -4.5 -2.3 0 2.3 4.5W Figure 26: t-maps de diferencias significativas entre centros, antes y después de SWPCA (synT1 y GM). 75
  • 84. Experimento 1: Diferencias entre centros 0.4 0.5 0.6 0.7 0.8 0.9 1.0 GM+WM GM WM GM+WM GM WM GM+WM GM WM GM+WM GM GM+WM WM qT1 qT2 synT1 GM WM no-SWPCA SWPCA Máscara Tejido Precisión Figure 27: Rendimiento en clasificación de LON vs CAM. 76
  • 86. Experimento 2: Diferencias entre grupos (por centro) 0.4 0.5 0.6 0.7 0.8 0.9 1.0 GM GM+WM WM GM GM+WM WM GM GM+WM WM GM GM+WM WM GM WM qT1 qT2 synT1 CAMBRIDGE LONDON Máscara Tejido Precisión Figure 28: Rendimiento en clasificación de cada centro en ASD vs CTL. 77
  • 87. CAM ASD+CTL LON ASD+CTL diferencias SVM VBM ASD CAM+LON CTL CAM+LON diferencias SVM VBM SWPCA SWPCA ORIG ORIG Experimento 3: Diferencias entre grupos (SWPCA)
  • 88. Experimento 3: Diferencias entre grupos (SWPCA) L R z=-26 L R z=-16 L R z=-6 L R z=4 L R z=14 L R z=24 L R z=34 L R z=48 L R z=60 L R z=-26 L R z=-16 L R z=-6 L R z=4 L R z=14 L R z=24 L R z=34 L R z=48 L R z=60 -5.1 -2.6 0 2.6 5.1L R z=-46 GM (GM+WM) - SWPCA Figure 29: t-maps de diferencias significativas entre centros, antes y después de SWPCA (synT1 y GM). 78
  • 89. Experimento 3: Diferencias entre grupos (SWPCA) 0.4 0.5 0.6 0.7 0.8 0.9 1.0 Máscara Tejido Precisión GM GM+WM WM GM GM+WM WM GM GM+WM WM GM GM+WM WM GM WM qT1 qT2 synT1 SWPCA no-SWPCA Figure 30: Rendimiento en clasificación en ASD vs CTL (con y sin SWPCA). 79
  • 90. Introducción El problema: pequeño número de muestras disponibles en estudios de imagen nuclear. Propuesta: Aumentar el número de datos de cada clase disponible mediante síntesis. loadings scores BASE DE DATOS PCA scores generados BASE DE DATOS SINTÉTICA MODELADO PDF CTL MCI AD loadings 81
  • 92. El espacio eigenbrain Descomposición PCA: X = SW (31) Extracción de component loadings (base de un espacio c-dimensional), también conocidos como eigenbrains, y component scores, las coordenadas de cada sujeto en el espacio eigenbrain. Group MCI AD Normal Componente0 Componente 1 82
  • 93. El espacio eigenbrain −40 −20 0 20 40 60 0 −20 0 20 40 1 −20 0 20 40 2 −50 0 50 0 −20 0 20 40 3 −50 0 50 1 −50 0 50 2 0 50 3 Group MCI AD Normal 83
  • 95. Estimación de PDF ˆfc mvn(x) = 1 (2π)N/2 |Σc | 1/2 exp ( (x − µc )T Σ−1 c (x − µc ) 2 ) (32) ˆfi,c kde(x) = 1 Nc Nc∑ l=1 Kh ( x − Si,c l ) = 1 Nch Nc∑ l=1 K ( x − Si,c l h ) (33) −60 −40 −20 0 20 40 60 0.000 0.005 0.010 0.015 0.020 0.025 0.030 Class Normal (1st component) MVN KDE Histogram −60 −40 −20 0 20 40 60 80 0.000 0.005 0.010 0.015 0.020 0.025 0.030 Class MCI (1st component) MVN KDE Histogram −75 −50 −25 0 25 50 75 100 0.000 0.005 0.010 0.015 0.020 0.025 0.030 Class AD (1st component) MVN KDE Histogram Figure 31: Comparación entre las estimaciones de PDF mediante MVN y KDE en la primera componente, con referencia del histograma. 84
  • 97. Generación de coordenadas s1 s2 q2 q1 Figure 32: Para generar las nuevas coordenadas si en espacio eigenbrain, se generan query points (qi) de una distribución uniforme y se convierten usando la CDF. 85
  • 99. Experimentos Hemos probado el algoritmo de síntesis en las bases ADNI-PET y PPMI-DAT. • Base: VAF en cada base de datos y diferentes escenarios. Análisis SPM adicional. • Experimento 1: Poder predictivo de las imágenes sintéticas. Predecir ejemplos reales con imágenes generadas a partir del training set. • Experimento 2: Independencia de las imágenes sintéticas: Usamos el mismo conjunto para test y training, y hacemos test también sobre imágenes generadas usando el conjunto de test. 86
  • 100. Base: VAF sobre cada base de datos 0.5 0.6 0.7 0.8 0.9 1.0 AD vs CTL MCI vs AD MCI vs CTL PD vs CTL ADNI-PET PPMI-DAT KDE MVN Orig Escenario Base de datos Precisión Figure 33: Rendimiento en clasificación VAF de cada una de las bases de imágenes originales y sintéticas. 87
  • 101. Base: ADNI-PET L R L R -12 -6 0 6 12 L R L R -15 -7.4 0 7.4 15 L R L R -15 -7.4 0 7.4 15 Figure 34: Análisis SPM de la base de datos ADNI-PET (Orig, MVN, KDE). 88
  • 102. Base: PPMI-DAT L R L R -24 -12 0 12 24 L R L R -29 -15 0 15 29 L R L R -20 -9.9 0 9.9 20 Figure 35: Análisis SPM de la base de datos PPMI-DAT (Orig, MVN, KDE). 89
  • 103. Base de datos original Validación cruzada TRAINING SET (ORIG) TEST SET(ORIG) TRAINING SET (SINTÉTICO) SVM Experimento 1 Entrenamiento Test Estimación de la precisión Experimento 1: poder predictivo de las imágenes sintéticas
  • 104. Experimento 1 0.5 0.6 0.7 0.8 0.9 1.0 AD vs CTL MCI vs AD MCI vs CTL PD vs CTL ADNI-PET PPMI-DAT KDE MVN Orig Escenario Base de datos Precisión Figure 36: Rendimiento en clasificación de imágenes originales y sintéticas bajo el experimento 1 (capacidad predictiva de las imágenes sintéticas), para PPMI-DAT y ADNI-PET, en función del método de modelado. Se muestra VAF de la base original para comparación. 90
  • 105. Base de datos original Validación cruzada TRAINING SET (ORIG) SVM Experimento 2 Entrenamiento Test TEST SET (SINTÉTICO) Test (resubstitución) Estimación de la precisión (resubstitución) Estimación de la precisión Experimento 2: Independencia de las imágenes sintéticas
  • 106. Experimento 2 0.5 0.6 0.7 0.8 0.9 1.0 AD vs CTL MCI vs AD MCI vs CTL PD vs CTL ADNI-PET PPMI-DAT KDE MVN Orig Escenario Base de datos Precisión Figure 37: Rendimiento en clasificación de imágenes originales y sintéticas bajo el experimento 2 (independencia de las mágenes sintéticas), para PPMI-DAT y ADNI-PET, en función del método de modelado. 91
  • 107. Conclusions • Different algorithms to tackle the Small Sample Size problem. • Decomposition: A significant computational load reduction. Similar pattern detection in images of AD and PD. Very generalizable systems (low dimensionality). Nuclear imaging and smoothed structural imaging. • Texture: Very accurate detection of PD. Differences in shape (cluster tendency) and radiopharmaceutical distribution (homogeneity). Pooling all → up to 97% accuracy in PPMI-DAT. • SBM: Novel technique. Original measures (average or VRLBP) achieve >90% accuracy in AD diagnosis. Preliminary results of 77.6% in MCI conversion. HMM paths good for morphology or segmentation, but not for feature selection. 93
  • 108. Conclusions • SWPCA: Solving a common multi-centre study problem: acquisition-related inhomogeneities larger than group differences. • We found that that could be a possible source of false positives in ASD studies. ASD heterogeneity or lack of structural differences. • Synthesis: Massive generation of brain images sharing characteristics with the original dataset. These images can predict real-world images and at the same time, be independent from the original image set. • All these algorithms and frameworks are complementary. Mixture of feature extraction and sample increasing strategies. 94
  • 109. Trabajo futuro Dos líneas fundamentales: • Profundizar en marcadores de progresión de neurodegeneración en imágenes estructurales. • Análisis de redes funcionales en fMRI. 95