logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-12232024-111746


Tipo di tesi
Tesi di laurea magistrale
Autore
MARIANI, MATTEO
URN
etd-12232024-111746
Titolo
Progettazione e sviluppo di un sistema SLAM per il trasporto tramite drone di materiale biomedicale
Dipartimento
INGEGNERIA DELL'INFORMAZIONE
Corso di studi
INGEGNERIA ROBOTICA E DELL'AUTOMAZIONE
Relatori
relatore Prof. Avizzano, Carlo Alberto
relatore Prof. Pollini, Lorenzo
correlatore Dott. Amicone, Donatello
Parole chiave
  • 3D mapping
  • biomedical material
  • drone
  • gps denied
  • localization
  • Slam
Data inizio appello
18/02/2025
Consultabilità
Non consultabile
Data di rilascio
18/02/2028
Riassunto
Nel mondo della robotica e della visione artificiale, una tecnologia rivoluzionaria si distingue per il suo impatto trasformativo: la Localizzazione e Mappatura Simultanea (SLAM). Grazie a questa tecnica, robot e sistemi autonomi possono esplorare e navigare ambienti sconosciuti costruendo mappe in tempo reale senza necessità di un segnale GPS. La stima precisa e robusta della posa è un elemento cruciale nel contesto della SLAM e, la fusione multi-sensore, si è dimostrata una strategia efficace per affrontare questa sfida, offrendo un ampio potenziale nelle applicazioni robotiche. Questo elaborato di tesi presenta, in prima battuta, l'applicazione di un algoritmo di SLAM alla navigazione di un drone, utilizzato per trasportare materiale biomedicale, in assenza di segnale GPS. In particolare viene proposto FAST-LIVO, un sistema rapido di odometria LiDAR-Inerziale-Visiva, sviluppato e testato utilizzando un drone in collaborazione con la startup AbZero. Il sistema si basa su due sottosistemi di odometria strettamente integrati: uno per l'odometria visivo-inerziale (VIO) e uno per l'odometria LiDAR-inerziale (LIO). Il sottosistema LIO registra punti grezzi da una nuova scansione LiDAR, allineandoli a una mappa incrementale di nuvole di punti, evitando così l'uso di punti caratteristici basati su bordi o piani. I punti della mappa vengono arricchiti con patch di immagini, utilizzati dal sottosistema VIO per allineare nuove immagini attraverso la minimizzazione degli errori fotometrici diretti, senza la necessità di estrarre caratteristiche visive (come ORB o FAST). Per migliorare ulteriormente la robustezza e la precisione del VIO, è presente un nuovo metodo di rifiuto degli outlier, progettato per escludere i punti della mappa instabili posizionati su bordi o occlusi nel campo visivo.
L'algoritmo, inoltre, richiede che i sensori in gioco siano sincronizzati strettamente in due modi: Time-synchronized, condividendo lo stesso clock, e Event-synchronized, collezionando i dati nel stesso istante di tempo.
Dopo aver descritto nel dettaglio l'algoritmo di SLAM (Simultaneous Localization and Mapping), questo lavoro si concentra sull'implementazione di un sistema di riconoscimento del punto di atterraggio, sfruttando l'uso di figure geometriche e marker ArUco. Grazie all'impiego di tecniche avanzate di computer vision, il sistema è in grado di rilevare con buona precisione il punto di atterraggio, migliorando l'affidabilità del processo nella stima della distanza.
Dopo aver sviluppato l'algoritmo, sono stati acquistati tutti i sensori necessari per il progetto, realizzate le saldature e i collegamenti indispensabili per la sincronizzazione. Infine, è stata progettata e stampata in 3D una struttura apposita, che ha consentito di alloggiare tutti i sensori in un'unità unica e compatta.
Per entrambi gli argomenti sono state condotte due tipologie di test: uno manuale, volto a verificare l'efficacia del sistema, e uno in volo con il drone, destinato a dimostrarne la robustezza. I risultati ottenuti dalle prove hanno evidenziato performance positive sia nell'algoritmo di SLAM, per quanto riguarda la mappatura dell'ambiente e la localizzazione del sistema, sia nel riconoscimento delle figure geometriche utilizzate per la fase di atterraggio del drone.

In the field of robotics and computer vision, one revolutionary technology stands out for its transformative impact: Simultaneous Localization and Mapping (SLAM). Through this technique, robots and autonomous systems can explore and navigate unknown environments by creating maps in real-time without the need for GPS signals. Accurate and robust pose estimation is a crucial element in the SLAM context, and multi-sensor fusion has proven to be an effective strategy for addressing this challenge, offering significant potential in robotic applications. This thesis presents, first, the application of a SLAM algorithm to the navigation of a drone used for transporting biomedical material, in the absence of GPS signals. Specifically, FAST-LIVO is proposed, a rapid LiDAR-Inertial-Visual odometry system, developed and tested using a drone in collaboration with the startup AbZero. The system is based on two tightly integrated odometry subsystems: one for visual-inertial odometry (VIO) and one for LiDAR-inertial odometry (LIO). The LIO subsystem records raw points from a new LiDAR scan, aligning them to an incremental point cloud map, thus avoiding the use of feature points based on edges or planes. The map points are enriched with image patches, which are used by the VIO subsystem to align new images through the minimization of direct photometric errors, without the need to extract visual features (such as ORB or FAST). To further enhance the robustness and accuracy of VIO, a new outlier rejection method is included, designed to exclude unstable map points located on edges or occluded within the field of view.
The algorithm also requires that the sensors involved be tightly synchronized in two ways: Time-synchronized, sharing the same clock, and Event-synchronized, collecting data at the same moment in time.
After providing a detailed description of the SLAM algorithm (Simultaneous Localization and Mapping), this work focuses on the implementation of a landing point recognition system, utilizing geometric shapes and ArUco markers. By employing advanced computer vision techniques, the system is able to detect the landing point with good accuracy, improving the reliability of the process in distance estimation.
After developing the algorithm, all the necessary sensors for the project were acquired, and the essential soldering and connections for synchronization were made. Finally, a custom structure was designed and 3D printed, allowing all the sensors to be housed in a single, compact unit.
For both topics, two types of tests were conducted: a manual, aimed at verifying the system's effectiveness, and one in-flight with the drone, aimed at demonstrating its robustness. The results obtained from the tests highlighted positive performance both in the SLAM algorithm, regarding environment mapping and system localization, and in the recognition of geometric shapes used for the drone's landing phase.
File