logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-03292025-160711


Tipo di tesi
Tesi di dottorato di ricerca
Autore
DE SANTI, LISA ANITA
URN
etd-03292025-160711
Titolo
Explainable Deep Learning for Medical Imaging: Bridging the Gap Between AI Algorithms and Clinical Decision-Making
Settore scientifico disciplinare
IBIO-01/A - Bioingegneria
Corso di studi
INGEGNERIA DELL'INFORMAZIONE
Relatori
tutor Prof. Vozzi, Giovanni
tutor Prof. Positano, Vincenzo
Parole chiave
  • Decision Support Systems
  • Deel Learning
  • Explainable Artificial Intelligence
  • Medical Imaging
Data inizio appello
14/04/2025
Consultabilità
Non consultabile
Data di rilascio
14/04/2095
Riassunto
Negli ultimi anni, l'Explainable Artificial Intelligence (XAI) sta assumendo un ruolo sempre più rilevante per migliorare l'interpretabilità dei modelli di Deep Learning (DL) nelle applicazioni di imaging medicale.
Questo interesse è alimentato dalle notevoli prestazioni ottenute dagli algoritmi di DL nell'esecuzione di una vasta gamma di compiti di analisi dell'imaging medico.
Il DL può significativamente supportare l'analisi dei dati medici sotto vari punti di vista, i quali includono la riduzione del carico di lavoro dei clinici, l'automatizzazione di compiti dispendiosi e garantendo prestazioni più elevate, maggiore oggettività e riproducibilità nelle valutazioni.
Il DL può inoltre servire come potenziale strumento di "knowledge-discovery'', in termini di estrazione di image-biomarkers ancora sconosciuti.
Tuttavia, la mancanza di trasparenza nella comprensione e spiegazione dei processi decisionali e dei fattori chiave che influenzano questi modelli solleva preoccupazioni etiche, di sicurezza e di affidabilità.
Questa limitazioni ne riducono l'accettabilità e creano scetticismo da parte degli utilizzatori, in particolare in settori ad alto rischio come la sanità.
La necessità di algoritmi trasparenti e spiegabili sta attirando anche l'attenzione delle autorità di regolamentazione, evidenziando che la ricerca XAI potrebbe influenzare direttamente lo sviluppo industriale di dispositivi software medici basati su AI.
Nonostante vi sia un crescente interesse in materia di XAI, non esiste un consenso ampio su come raggiungere una piena interpretabilità nei sistemi AI basati su DL.
Questa sfida è ulteriormente complicata dalla difficoltà di valutare i metodi XAI. Attualmente, non ci sono framework universalmente riconosciuti per valutare la qualità degli output prodotti da modelli di XAI, e la valutazione delle spiegazioni rimane un'area di ricerca complessa ed in evoluzione.
Questa tesi ha l'obiettivo di integrare la XAI nell'analisi dell'imaging medico per sviluppare sistemi di supporto decisionale che superino le limitazioni del paradigma del "black-box".


In recent years, Explainable Artificial Intelligence (XAI) has become increasingly relevant to enhance the interpretability of Deep Learning (DL) models in medical imaging applications.
This interest stems from the remarkable performance obtained by DL algorithms for the execution of a wide variety of relevant medical imaging analysis tasks.
DL can significantly aid in medical data analysis by reducing clinician workload, automating time-intensive tasks, and ensuring higher performance, objectivity, and reproducibility in evaluations. Additionally, DL holds potential as a knowledge-discovery tool, in terms of extracting yet unknown image-based biomarkers.
However, the lack of transparency in understanding and explaining the decision-making processes and key factors influencing these models raises ethical, safety, and trustworthiness concerns.
This limitation reduces their acceptance, particularly in high-risk areas such as healthcare.
The need for transparent and explainable algorithms is also drawing attention from regulatory bodies, highlighting that XAI research may directly influence the industrial development of AI-powered medical software devices.
However, despite this growing interest, there is no broad agreement on how to achieve full interpretability in DL-based AI systems.
This challenge is further compounded by the difficulty in evaluating XAI methods.
Currently, there are no universally recognized standard frameworks to assess the quality of XAI outputs, and the evaluation of explanations remains a complex and evolving research area.
This thesis aims to integrate XAI into medical imaging analysis to develop decision-support systems that overcome the limitations of the "black-box" paradigm.
File