logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-03262025-200900


Tipo di tesi
Tesi di dottorato di ricerca
Autore
ZULBERTI, LUCA
URN
etd-03262025-200900
Titolo
CGR-AI Engine: a Scalable CGRA-based Processing Platform for Artificial Intelligence in Space Applications
Settore scientifico disciplinare
IINF-01/A - Elettronica
Corso di studi
INGEGNERIA DELL'INFORMAZIONE
Relatori
tutor Prof. Fanucci, Luca
Parole chiave
  • artificial intelligence
  • cgra
  • hardware acceleration
  • riscv
  • space
Data inizio appello
17/04/2025
Consultabilità
Non consultabile
Data di rilascio
17/04/2095
Riassunto
L'elaborazione di dati nello spazio costituisce un elemento fondamentale delle moderne missioni spaziali, supportando una varietà diversificata di applicazioni.
Negli ultimi anni, il ruolo dell’Intelligenza Artificiale (AI) all’interno dell’industria spaziale è diventato sempre più importante.
La sua capacità di offrire prestazioni superiori rispetto ai metodi tradizionali, in particolare per quanto riguarda l'elaborazione delle immagini, ha accelerato il suo sviluppo nel settore spaziale.
In questo contesto, l'architettura di elaborazione con cui è equipaggiato il veicolo spaziale assume un fattore cruciale per l'efficienza degli algoritmi di inferenza e per l'usabilità della piattaforma per diverse missioni.
Le missioni spaziali sono classificate in diverse categorie di criticità, per le quali il compromesso tra affidabilità e prestazioni varia, da una massima affidabilità a scapito delle prestazioni e viceversa.
In particolare, per le missioni di alta classe, le soluzioni più avanzate utilizzate a terra per l’inferenza delle Reti Neurali (NN) non possono essere trasferite nello spazio a causa della scarsa resistenza alle radiazioni e del consumo energetico.
Inoltre, lo sviluppo di soluzioni per questa categoria di missioni comporta costi significativi, sia in termini di progettazione che di fabbricazione.
Le architetture di elaborazione dovrebbero durare per anni e essere pronte per i modelli di NN di prossima generazione che potrebbero emergere in futuro per migliorare le capacità delle missioni e il ritorno scientifico ed economico.
Per affrontare questo problema, la comunità di ricerca nel settore spaziale sta indagando su nuove piattaforme di elaborazione che potrebbero essere utilizzate per questa funzione.
Tra tutte le soluzioni, le architetture CGRA (Coarse-Grained Reconfigurable Array) stanno diventando interessanti per l’inferenza delle NN a terra e sono anche il settore spaziale le sta prendendo in considerazione.
I CGRA rappresentano una classe di architetture computazionali che integrano l'adattabilità di GPP (General Purpose Processors) con l'efficienza prestazionale degli ASIC (Application-Specific Integrated Circuits).
Queste architetture sono composte da una matrice bidimensionale di Elementi di Processamento (PE) programmabili che sono interconnessi tramite una rete riconfigurabile.
Funzionano come acceleratori hardware per migliorare la velocità di esecuzione di cicli computazionalmente intensivi per vari algoritmi.
Sfortunatamente, la letteratura presenta pochissimi lavori sulle capacità di queste architetture nello spazio, e la progettazione di tali piattaforme comporta numerose attività di Elaborazione dello Spazio di Progetto (DSE) per ottimizzare i compromessi tra prestazioni, occupazione di area e consumo energetico.
Questa tesi presenta CGR-AI Engine, una piattaforma di elaborazione scalabile basata su CGRA che abilita l'uso di applicazioni di AI nello spazio.
È composta da vari elementi altamente configurabili le cui capacità possono essere calibrate attraverso un'attività di DSE, i cui risultati sono stati riportati in questa tesi.
La soluzione proposta combina la programmabilità di un processore RISC-V utilizzato come schedulatore di transazioni di memoria e la riconfigurabilità di una matrice di elaborazione CGRA che implementa DFG (Data Flow Graph) di un particolare algoritmo.
Essa fornisce una soluzione versatile adattabile a vari carichi di lavoro e può essere personalizzata per soddisfare requisiti applicativi distinti, così come diversi vincoli di risorse e potenza.
La tesi descrive la metodologia per implementare layer e modelli di NN di uso generale e fornisce un'analisi dettagliata dei benchmark condotti per valutare le loro prestazioni.
I risultati confermano l'efficacia della soluzione proposta nel soddisfare i requisiti specifici per l'esecuzione di algoritmi AI nello spazio.

English:
The execution of processing tasks in space constitutes a fundamental element of modern space missions, supporting a diverse array of applications. In recent years, the role of Artificial Intelligence (AI) within the space industry has become more important. Its ability to perform better than traditional methods, in particular for image processing, has also pushed its development into the space sector. In this context, the processing architecture with which the spacecraft is equipped is an important factor for the efficiency of the inference algorithms and the usability of the platform for different missions. Space missions are grouped into different criticality classes for which the reliability and performance trade-off varies from maximum reliability at the cost of performance and vice versa. For high-class missions in particular, the most advanced solutions used on the ground for Neural Network (NN) inference cannot be brought in space due to radiation hardening and power budget. Furthermore, the development of solutions for this category of mission incurs significant costs, both in terms of design and fabrication perspectives. Processing architectures should last for years and be ready for next-generation NN models that could arise in the future to improve mission capabilities and both scientific and economic return. To solve this problem, the research community in the space sector is investigating new processing platforms that could be used for this function. Among all solutions, Coarse-Grained Reconfigurable Array (CGRA) architectures are becoming interesting for the inference of NNs on the ground and are also being considered for the space sector. CGRAs represent a class of computational architectures that integrate the adaptability of General Purpose Processors (GPPs) with the performance efficiency of Application Specific Integrated Circuits (ASICs). These architectures are composed of a two-dimensional array of programmable Processing Elements (PEs) that are interconnected via a reconfigurable network. They function as hardware accelerators to enhance the speed of computationally intensive inner loops for various algorithms. Unfortunately, the literature presents very few works on the capabilities of these architectures in space, and the design of such platforms involves a lot of Design Space Exploration (DSE) activities to tune trade-offs between performance, area occupation, and power consumption. This thesis presents CGR-AI Engine, a scalable CGRA-based processing platform that can enable the use of AI applications in space. It is made up of various highly customizable elements whose capabilities can be tuned employing a DSE activity, whose results have been reported in this thesis. The proposed solution combines the programmability of a RISC-V processor used as a memory transaction scheduler and the reconfigurability of a CGRA processing matrix implementing Data Flow Graphs (DFGs) of a particular algorithm. It provides a versatile solution adaptable to various workloads and can be tailored to accommodate distinct application requirements as well as diverse resource and power constraints. The thesis elucidates the methodology for implementing general-purpose NN layers and models and provides a detailed analysis of benchmarks conducted to assess their performance. The findings corroborate the effectiveness of the proposed solution in meeting the onboard requirements specific to AI.
File