logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-01232021-122426


Tipo di tesi
Tesi di laurea magistrale
Autore
ZAMPOLINI, RACHELE
URN
etd-01232021-122426
Titolo
Analisi e implementazione di modelli di Deep Learning per la diagnosi di Alzheimer da immagini PET cerebrali
Dipartimento
INGEGNERIA DELL'INFORMAZIONE
Corso di studi
INGEGNERIA BIOMEDICA
Relatori
relatore Prof.ssa Santarelli, Maria Filomena
Parole chiave
  • convolutional neural network
  • deep learning
  • mild cognitive impairment
  • alzheimer's disease
Data inizio appello
12/02/2021
Consultabilità
Completa
Riassunto
Alla base di questo studio vi è l’interesse per trovare uno strumento che sia di ausilio al medico nella diagnosi di una patologia complessa quale è l’Alzheimer. L’obbiettivo di questa tesi di laurea è la creazione di una rete neurale convolutiva (CNN) che analizzi immagini PET cerebrali e che classifichi il grado di malattia del soggetto in esame in 3 classi: NC (paziente sano), MCI (Mild Cognitive Impairment) e AD (Alzheimer’s Disease). In questa tesi viene fornita un’introduzione alla malattia dell’Alzheimer analizzando in breve in cosa consiste, cosa comporta per la persona e a quale punto sia arrivata la ricerca per la diagnosi e cura della malattia. Inoltre si cerca di spiegare anche cosa sia il Mild Cognite Impairment (MCI) e infine si fa un accenno allo strumento di imaging della PET/CT e a come questa possa essere utilizzata come tecnica di imaging per una diagnosi di Alzheimer. Si è poi voluta fornire un’introduzione al del Deep Learning, in particolare alle reti neurali convolutive (CNN) prima in generale e poi approfondendo il loro ruolo all’interno dell’ambito medico, in particolare nel caso di studio oggetto di questa tesi. Sono stati mostrati i vantaggi e gli svantaggi delle diverse reti proposte e trovate in letteratura che utilizzino CNN su immagini PET nell’ambito della classificazione diagnostica di pazienti malati di Alzheimer. Di queste reti ne sono state implementate due in Python, una che accetta in input immagini 3D (Rete 3D) e l’altra immagini 2D (Rete 2D). Nell’allenamento di entrambe le reti è stato fondamentale fare Data Augmentation visto che si avevano a disposizione solo 86 pazienti, un numero troppo ridotto per gli scopi del Deep Learning, e si è riusciti ad ottenere 1032 immagini.
Dopo aver implementato le due reti si è visto che le performance delle due reti sono paragonabili, infatti entrambe raggiungono delle buone accuratezze di test, delle metriche soddisfacenti e ottengono i risultati in tempi ridotti. Delle due se ne è scelta una su cui fare delle modifiche e studiare più a fondo il suo comportamento sfruttando le mappe di attivazione, ovvero la Rete 3D. Ciò che ha spinto nella scelta di una maggiore analisi della Rete 3D è stato principalmente il fatto che: agisca direttamente su immagini 3D e non 2D, sia costituita da meno livelli, quindi sia più maneggiabile e semplice da analizzare e non si appoggi a nessuna rete già pre-esistente e allenata (come fa invece la Rete 2D che si appoggia alla rete pre allenata InceptionV3), ma sia stata costruita strato per strato. Si è provato ad effettuare alcuni cambiamenti all’architettura della Rete 3D per vedere come questa rispondeva e se effettivamente la sua composizione fosse la quella ideale per i nostri scopi e le nostre immagini. I cambiamenti effettuati si sono mossi in due direzioni: snellimento della rete e aumento degli strati della rete. Dalle varie prove è stato visto che eliminando il secondo strato convolutivo della Rete 3D i risultati erano nettamente migliori sia in termini di tempo che di prestazione, infatti dalle mappe di attivazione è risultato che le informazioni estratte da questa convoluzione non fossero preponderanti al fine dell’analisi.
Le prestazioni della rete così strutturata sembrano promettenti, ma prima di un possibile uso clinico dovrebbero essere sicuramente fatte delle validazioni con un ulteriore dataset di test molto più numeroso di quello che si ha avuto a disposizione in questo studio. Con un’ulteriore convalida esterna l’algoritmo infatti potrebbe essere integrato nel flusso di lavoro clinico e servire come uno strumento di supporto decisionale per aiutare i medici nella previsione dell’AD da immagini [18F]-FDG PET.

At the base of this study there is the interest to find a tool that can help the doctor in the diagnosis of a complex disease such as Alzheimer's. The objective of this thesis is the creation of a convolutional neural network (CNN) that analyzes brain PET images and classifies the degree of disease of the subject under examination in 3 classes: NC (healthy patient), MCI (Mild Cognitive Impairment) and AD (Alzheimer's Disease). In this thesis is provided an introduction to Alzheimer's disease by analyzing in brief what it consists of, what it means for the person and at what point has arrived the research for the diagnosis and treatment of the disease. It also tries to explain what is the Mild Cognitive Impairment (MCI) and finally there is a mention of the imaging tool of PET / CT and how it can be used as an imaging technique for a diagnosis of Alzheimer's disease. It was then intended to provide an introduction to Deep Learning, in particular convolutional neural networks (CNN) first in general and then delving into their role within the medical field, particularly in the case study that is the subject of this thesis. The advantages and disadvantages of the different networks proposed and found in the literature that use CNN on PET images in the diagnostic classification of Alzheimer's patients were shown. Of these networks, two were implemented in Python, one accepting as input 3D images (3D Network) and the other 2D images (2D Network). In the training of both networks it has been fundamental to do Data Augmentation as we had only 86 patients available, a number too small for the purposes of Deep Learning, and we were able to obtain 1032 images. After implementing the two networks it was seen that the performance of the two networks are comparable, in fact both reach good test accuracy, satisfactory metrics and obtain results in a short time. Of the two we chose one on which to make changes and study more deeply its behavior using the activation maps, that is the 3D Network. What has pushed in the choice of a greater analysis of the 3D Network has been mainly the fact that: it acts directly on 3D images and not 2D, it is constituted by less layers, therefore it is more manageable and simple to analyze and it does not lean on any pre-existing and trained network (as it does instead the 2D Network that relies on the pre-trained network InceptionV3), but it has been built layer by layer. We tried to make some changes to the architecture of the 3D Network to see how it responded and if indeed its composition was the ideal one for our purposes and our images. The changes made moved in two directions: streamlining the network and increasing the number of layers in the network. From the various tests it was seen that eliminating the second convolutional layer of the 3D network the results were much better both in terms of time and performance, in fact from the activation maps it was found that the information extracted from this convolution was not preponderant for the purpose of analysis.
The performance of the network structured in this way seems promising, but before a possible clinical use should certainly be made of the validations with a further test dataset much larger than what we had available in this study. With further external validation the algorithm in fact could be integrated into the clinical workflow and serve as a decision support tool to aid clinicians in predicting AD from [18F]-FDG PET images.
File