Tesi etd-06132025-171510 |
Link copiato negli appunti
Tipo di tesi
Tesi di laurea magistrale
Autore
CENTRACCHIO, GIULIA
URN
etd-06132025-171510
Titolo
Ridurre l'incertezza degli utenti nell'Explainable AI: un approccio basato sul Bayesian Information Gain
Dipartimento
FILOLOGIA, LETTERATURA E LINGUISTICA
Corso di studi
INFORMATICA UMANISTICA
Relatori
relatore Mazzei, Daniele
relatore Turchi, Tommaso
relatore Turchi, Tommaso
Parole chiave
- AI
- Artificial Intelligence
- Bayes
- Bayesian Information Gain
- Explainable AI
- Intelligenza artificiale
- XAI
Data inizio appello
04/07/2025
Consultabilità
Non consultabile
Data di rilascio
04/07/2028
Riassunto
Negli ultimi anni, la crescente complessità dei modelli di intelligenza artificiale ha aumentato l’esigenza di strumenti in grado di renderne il funzionamento più trasparente e comprensibile agli utenti. Questa tesi si inserisce nel campo della Explainable Artificial Intelligence (XAI), con l’obiettivo di indagare come le spiegazioni possano ridurre l’incertezza percepita dagli utenti e migliorarne la comprensione del modello. Sono state analizzate tre tipologie di spiegazioni — globale, locale e controfattuale — utilizzando rispettivamente SHAP, LIME e DiCE su un modello predittivo applicato a un dataset realistico. L’efficacia comunicativa di ciascun metodo è stata valutata attraverso un esperimento basato su questionari, per osservare l’impatto delle spiegazioni sulle risposte e sulla fiducia degli utenti.
In recent years, the growing complexity of artificial intelligence models has increased the need for tools that can make their functioning more transparent and understandable to users. This thesis is situated within the field of Explainable Artificial Intelligence (XAI), with the aim of investigating how explanations can reduce the uncertainty perceived by users and improve their understanding of the model. Three types of explanations — global, local and counterfactual — were analysed using SHAP, LIME and DiCE, respectively, on a predictive model applied to a realistic dataset. The communicative effectiveness of each method was evaluated through a questionnaire-based experiment to observe the impact of explanations on users' responses and trust.
In recent years, the growing complexity of artificial intelligence models has increased the need for tools that can make their functioning more transparent and understandable to users. This thesis is situated within the field of Explainable Artificial Intelligence (XAI), with the aim of investigating how explanations can reduce the uncertainty perceived by users and improve their understanding of the model. Three types of explanations — global, local and counterfactual — were analysed using SHAP, LIME and DiCE, respectively, on a predictive model applied to a realistic dataset. The communicative effectiveness of each method was evaluated through a questionnaire-based experiment to observe the impact of explanations on users' responses and trust.
File
Nome file | Dimensione |
---|---|
La tesi non è consultabile. |