ETD

Archivio digitale delle tesi discusse presso l'Università di Pisa

Tesi etd-11102021-204727


Tipo di tesi
Tesi di laurea magistrale
Autore
GIRONI, VIRGINIA
URN
etd-11102021-204727
Titolo
Trustworthy AI: progettazione e implementazione di strumenti per l'analisi di fairness e trasparenza
Dipartimento
INFORMATICA
Corso di studi
DATA SCIENCE AND BUSINESS INFORMATICS
Relatori
relatore Monreale, Anna
controrelatore Bruni, Roberto
Parole chiave
  • Explainable IA
  • Beneficial AI
  • Ethical AI
  • Black-Box
  • Ethics
  • Explainability
  • Bias Mitigation
  • Fairness
  • Machine Learning
  • Fair AI
  • Beneficial AI
  • Bias
  • AutoML
  • Artificial Intelligence
  • Trustworthy AI
Data inizio appello
03/12/2021
Consultabilità
Non consultabile
Data di rilascio
03/12/2091
Riassunto
La discriminazione algoritmica è uno dei rischi generato dall'uso sempre più frequente di sistemi di intelligenza artificiale (AI). Questi sistemi adottano complessi modelli Machine Learning (ML) che nascondono la logica dei loro processi interni, si tratta di sistemi opachi detti anche "black-box". L’obiettivo del Trustworthy AI è quello di evitare il rischio generato dall'utilizzo di questi modelli, ovvero portare all'adozione di decisioni che non vengono completamente comprese, che possono essere discriminatorie o che violano i principi etici.
L’obiettivo del tool progettato dal team Risk Advisory di Deloitte è predisporre uno strumento in grado di calcolare la fairness, mitigare il bias e valuare l'explainability dei modelli di machine learning, a partire da un dataset messo a disposizione dall'utente. La fairness viene calcolata attraverso l’utilizzo di metriche fornite da specifiche librerie (Microsoft Fairlearn e IBM AI Fairness 360), mentre la mitigazione del bias avviene applicando algoritimi di bias mitigation di tipo pre-process, in-process e post-process. Per quanto riguarda l'explainability del modello, ovvero le tecniche che consentono di rendere comprensibile e interpretabile la logica interna e l'esito del modello, sono implementate due librerie: SHAP e Lime.

Algorithmic discrimination is one of the risks generated by the increasing use of artificial intelligence (AI) systems. These systems adopt complex Machine Learning (ML) models that hide the logic of their internal processes, they are opaque systems also called "black-boxes". The aim of Trustworthy AI is to avoid the risk generated by the use of these models, that is to lead to the adoption of decisions that are not fully understood, that may be discriminatory or that violate ethical principles.
The goal of the tool designed by the Deloitte Risk Advisory team is to provide a tool that can calculate fairness, mitigate bias and evaluate the explainability of machine learning models, starting from a dataset made available by the user. Fairness is calculated by using metrics provided by specific libraries (Microsoft Fairlearn and IBM AI Fairness 360), while bias mitigation is achieved by applying pre-rocess, in-process, and post-process bias mitigation algorithms. As for the explainability of the model, or the techniques that make it possible to understand and interpret the internal logic and the outcome of the model, two libraries are implemented: SHAP and Lime.
File