logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-05312023-160216


Tipo di tesi
Tesi di laurea magistrale
Autore
TURCHETTI, LEONARDO
URN
etd-05312023-160216
Titolo
Sleep stage recognition supported by instances-based explanation via contrastive learning
Dipartimento
INGEGNERIA DELL'INFORMAZIONE
Corso di studi
ARTIFICIAL INTELLIGENCE AND DATA ENGINEERING
Relatori
relatore Prof. Cimino, Mario Giovanni Cosimo Antonio
relatore Ing. Alfeo, Antonio Luca
relatore Ing. Gagliardi, Guido
Parole chiave
  • contrastive learning
  • explainable ai
  • sleep stages recognition
Data inizio appello
16/06/2023
Consultabilità
Non consultabile
Data di rilascio
16/06/2093
Riassunto
Questo lavoro di tesi si inserisce quindi nel contesto dell'Explainable Artificial Intelligence, una disciplina nata recentemente con l'obiettivo di fornire una spiegazione dei risultati che le varie architetture di Machine Learning e Deep Learning sono in grado di produrre.
Infatti, i modelli che non riescono a fornire una spiegazione dei risultati sono spesso inutilizzati, soprattutto in campo medico, poiché è in gioco la vita del paziente e quindi il medico non può affidarsi esclusivamente al risultato fornito da un algoritmo, senza sapere quale parte dell'algoritmo ha prodotto quel risultato e senza sapere esattamente come è arrivato quel risultato. Nel mio lavoro, infatti, mi sono concentrato sulla spiegabilità dei risultati, che, come detto, si trova nella visualizzazione dello spazio di latenza.

This thesis work is therefore part of the context of Explainable Artificial Intelligence, a discipline recently born with the aim of providing an explanation of the results that the various Machine Learning and Deep Learning architectures are able to produce.
In fact, models that fail to provide an explanation of the results are often unused, especially in the medical field, since the patient's life is at stake and therefore the doctor cannot rely solely on the result provided by an algorithm, without knowing which part of the algorithm produced that result and without knowing exactly how that result arrived. In my work, in fact, I focused on the explainability of the results, which, as mentioned, is found in the visualization of the latency space.
File