logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-05132025-154304


Tipo di tesi
Tesi di laurea magistrale
Autore
CANINO, SALVATORE
URN
etd-05132025-154304
Titolo
Trust and Privacy Defenses in Federated Learning for Multi-Greenhouse Systems: Developing and Testing Attacks and Defenses Using Real-World Data
Dipartimento
INGEGNERIA DELL'INFORMAZIONE
Corso di studi
INGEGNERIA DELLE TELECOMUNICAZIONI
Relatori
relatore Prof. Pagano, Michele
correlatore Prof. Adami, Davide
correlatore Dott. Bua, Cristian
Parole chiave
  • attacchi
  • attacks
  • defenses
  • difese
  • distribuzione delle label
  • federated learning
  • federated learning
  • label distribution
  • local training
  • meta-model
  • meta-modello
  • multi-greenhouse systems
  • shadow-dataset
  • shadow-dataset
  • sistemi multi-serra
  • training locale
Data inizio appello
06/06/2025
Consultabilità
Non consultabile
Data di rilascio
06/06/2028
Riassunto
Tesi incentrata sullo studio e test dei principali attacchi e le corrispettive difese nel federated learning. Ci si concentra su quattro attacchi: il primo che cerca di intaccare la bontà del modello alla fine del training, il secondo attacco ha come scopo quello di non riuscire a finire la fase di training, il terzo invece salvandosi i modelli dei client cerca di stimare le distribuzioni delle label dei singoli client e si basa su un meta-model allenato su degli shadow-dataset, infine nell'ultimo attacco un client evita di fare il training locale fingendo di partecipare attivamente. Ad ogni attacco sono state sviluppate varie strategia di difesa e testato le prestazioni del sistema. Per concludere è stata creata una difesa finale che univa tutte le altre e testata con i vari attacchi per dimostrare il suo funzionamento trasversale.

Thesis focused on the study and testing of the main attacks and the corresponding defenses in federated learning. We focus on four attacks: the first one that tries to undermine the goodness of the model at the end of training, the second attack has the aim of not being able to finish the training phase, the third one instead, saving the client models, tries to estimate the distributions of the labels of the individual clients and is based on a meta-model trained on shadow-datasets, finally in the last attack a client avoids doing local training by pretending to actively participate. For each attack, various defense strategies were developed and the system performance was tested. To conclude, a final defense was created that united all the others and tested with the various attacks to demonstrate its transversal functioning.
File