logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-10202023-171220


Tipo di tesi
Tesi di specializzazione (4 anni)
Autore
LEO, ANDREA
URN
etd-10202023-171220
Titolo
Explainable Artificial Intelligence as an aid to clinical practice: classification of cognitive decline using FDG-PET
Dipartimento
RICERCA TRASLAZIONALE E DELLE NUOVE TECNOLOGIE IN MEDICINA E CHIRURGIA
Corso di studi
MEDICINA NUCLEARE
Relatori
relatore Prof. Volterrani, Duccio
relatore Dott. Giorgetti, Assuero
Parole chiave
  • artificial intelligence
  • intelligenza artificiale
  • PET
  • declino cognitivo
  • cognitive decline
  • Alzheimer
Data inizio appello
06/11/2023
Consultabilità
Non consultabile
Data di rilascio
06/11/2093
Riassunto
In recent years, Artificial intelligence has emerged as a tool that can be applied to medical imaging, to enhance image quality, automatically label large datasets and support clinical decisions. However, the "black box" nature of AI methods is challenging: the exact reasoning behind AI results can not be clearly described, thus limiting their reliability in a clinical setting. Explainable Artificial Intelligence (XAI) has been proposed to overcome this problem by providing meaningful descriptions of those features that are relevant in AI-based image processing. Here, Layerwise Relevance Propagation (LRP), a widely used XAI techinque, was employed to help the classification of FDG-PET images from patients with three stages of cognitive decline (Cognitively Normal, Mild Cognitive Impairment and early Alzheimer's Disease). Classification of cognitive status by means of FDG-PET was performed in the "typical" clinical setting - based on the PET images only - and in a potential AI-guided setting, where AI-based labels and LRP maps were used along with PET images.

L'intelligenza artificiale si è affermata negli ultimi anni come uno strumento applicabile alle immagini mediche, per aumentare la qualità delle immagini, categorizzare automaticamente dataset estesi e aiutare l'iter clinico. Tuttavia, i metodi di AI sono inficiati dal problema della "black box": non è possibile descrivere chiaramente i meccanismi esatti che portano ai risultati, e questo limita la loro affidabilità in ambito clinico. L'Explainable Artificial Intelligence (XAI) mira a superare questo problema fornendo descrizioni delle features che risultano rilevanti nell'analisi di immagini guidata da AI. In questo lavoro, una tecnica di XAI, la Layerwise Relevance Propagation (LRP) è stata utilizzata per guidare la classificazione di immagini FDG-PET di pazienti con tre possibili stadi di declino cognitivo (soggetti normali e pazienti con Mild Cognitive Impairment e malattia di Alzheimer in fase prodromica). La classificazione del livello cognitivo è stata eseguita dapprima in un contesto clinico "tipico" - basato sulle sole immagini PET, e in un possibile setup guidato da AI, in cui le classi fornite dalla AI e le mappe di LRP sono state utilizzate in aggiunta alle immagini PET.
File