logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-03242024-193217


Tipo di tesi
Tesi di laurea magistrale
Autore
PUCCI, PAOLO
URN
etd-03242024-193217
Titolo
Event-Based Vision Methods for Position Estimation in Robotic Catching
Dipartimento
INGEGNERIA DELL'INFORMAZIONE
Corso di studi
INGEGNERIA ROBOTICA E DELL'AUTOMAZIONE
Relatori
relatore Prof. Bianchi, Matteo
correlatore Ing. Pagnanelli, Giulia
correlatore Ing. Baracca, Marco
Parole chiave
  • even-based camera
  • object cathing
  • position estimation
  • vision
Data inizio appello
10/04/2024
Consultabilità
Non consultabile
Data di rilascio
10/04/2094
Riassunto
Tra le molteplici sfide affrontate in robotica in cui è importante il ruolo della visione, c'è quella della stima della posizione di oggetti e la loro conseguente presa.
Lo stato dell'arte si affida a sistemi sensoristici ottici tradizionali, che catturano immagini statiche e le elaborano in seguito per estrarre informazioni sulla posizione degli oggetti.
Tuttavia, tali approcci diventano il collo di bottiglia dell'automazione. Inoltre i tipi di detection e tracking dell'oggetto attualmente in uso si affidano ad algoritmi onerosi (DBSCAN), e metodologie che fanno uso di tracker fisici (motion capture) oppure di addestramento (reti neurali).
I sensori di visione event-based, o neuromorfici, registrano solo le variazioni di luminosità nella scena garantendo bassa latenza e un alto range dinamico. Questi sensori sono ideali per applicazioni che richiedono tempi di reazione rapidi e precisione nella stima della posizione.
Il presente lavoro di tesi ha come obiettivo lo studio dei principali algoritmi di visione event-based utilizzati per la stima della posizione.
Per la parte di detection dell'oggetto sono stati considerati in particolare l'algoritmo classico DBSCAN, un altro tipo di clustering che riconosce i blob di eventi e un algoritmo autonomamente implementato che lavora direttamente sugli eventi bypassando la fase di clustering. Queste tre alternative vengono confrontate per prestazioni e caratteristiche.
Una volta individuato l'oggetto lungo la sua traiettoria se ne stima la posizione finale e il tempo di arrivo tramite l'implementazione di un filtro di Kalman.
In seguito viene individuato un caso d'uso esemplificativo di scenari reali, cioè la presa di un oggetto in movimento veloce con traiettoria lineare rettilinea, utilizzando una camera neuromorfica e un braccio manipolatore a 7 gradi di libertà.
Viene utilizzato l'algoritmo 'no-cluster' che è l'ideale per il task prefissato, arrivando a intercettare oggetti con alta precisione fino a una velocità di circa 1 m/s. Questi risultati superano ampiamente i limiti stringenti di un approccio classico con sensori tradizionali. La potenzialità dell'architettura permette di superare facilmente le velocità ottenute qui sperimentalmente, tarando opportunamente alcuni parametri.
Nell'ultima parte di questo lavoro viene presentato lo stesso approccio per la stima di posizione esteso al tracking di oggetti in movimento non rettilineo, permettendo al robot di effettuare anche prese di oggetti in volo a velocità significative. Opportune dimostrazioni sono state condotte in ambiente simulativo e rappresentano il punto di partenza di sviluppi futuri.
I risultati di questo studio potrebbero trovare applicazioni significative in settori come la logistica, la robotica industriale e la ricerca spaziale, contribuendo così a migliorare l'efficienza e l'adattabilità dei sistemi robotici in contesti reali.
File