Tesi etd-09112025-115220 |
Link copiato negli appunti
Tipo di tesi
Tesi di laurea magistrale
Autore
BENEDETTI, LORENZO
URN
etd-09112025-115220
Titolo
Complete Coverage Path Planning: approcci basati su Deep Reinforcement Learning
Dipartimento
INGEGNERIA DELL'INFORMAZIONE
Corso di studi
INGEGNERIA ROBOTICA E DELL'AUTOMAZIONE
Relatori
relatore Prof.ssa Pallottino, Lucia
tutor Ing. Cordella, Giovanni Marco
tutor Ing. Cordella, Giovanni Marco
Parole chiave
- Complete Coverage
- Complete Coverage Path Planinng
- Coverage
- Deep Reinforcement Learning
- Path Planning
Data inizio appello
29/09/2025
Consultabilità
Completa
Riassunto
Il problema del Complete Coverage Path Planning (CCPP) rappresenta una delle sfide fondamentali della robotica mobile, in quanto consiste nel determinare un percorso che consenta a un robot di visitare in maniera sistematica l’intera area di lavoro. Tale capacità è cruciale in diversi ambiti applicativi, tra cui la robotica domestica, l’agricoltura di precisione e l’ispezione industriale. Gli approcci tradizionali al CCPP, basati su tecniche di decomposizione cellulare e su schemi di path planning predefiniti, garantiscono la copertura completa ma presentano limiti significativi quando applicati a perimetri reali complessi e non regolari, introducendo inefficienze e ridondanze nei percorsi.
Questa tesi propone un approccio innovativo al CCPP basato su algoritmi di Deep Reinforcement Learning (DRL). L’idea centrale è addestrare un agente intelligente in grado di apprendere strategie di copertura adattive direttamente da perimetri reali, superando le ipotesi restrittive dei metodi classici. L’approccio si articola in tre fasi principali: (i) sviluppo di un ambiente simulativo realistico basato su perimetri estratti da scenari concreti, (ii) definizione di una funzione di ricompensa che bilanci completezza della copertura ed efficienza del percorso, (iii) addestramento e valutazione dell’agente DRL con algoritmi avanzati come PPO, SAC e TD3.
I risultati ottenuti mostrano che l’agente DRL è in grado di garantire la copertura completa dell’area, ottenendo percorsi più efficienti rispetto agli approcci tradizionali. Pur richiedendo un addestramento intensivo e tempi di convergenza non trascurabili, il metodo dimostra una buona capacità di generalizzazione su ambienti realistici.
In conclusione, questo lavoro evidenzia il potenziale del DRL come alternativa ai metodi classici per il CCPP, aprendo la strada a futuri sviluppi legati all’ottimizzazione della funzione di ricompensa, all’integrazione di tecniche di transfer learning e alla validazione su piattaforme robotiche reali.
The problem of Complete Coverage Path Planning (CCPP) represents one of the fundamental challenges in mobile robotics, as it consists of determining a path that allows a robot to systematically visit the entire workspace. This capability is crucial in several application domains, including domestic robotics, precision agriculture, and industrial inspection. Traditional approaches to CCPP, based on cell decomposition techniques and predefined path planning schemes, ensure complete coverage but exhibit significant limitations when applied to complex and irregular real-world perimeters, introducing inefficiencies and redundancies in the paths.
This thesis proposes an innovative approach to CCPP based on Deep Reinforcement Learning (DRL) algorithms. The core idea is to train an intelligent agent capable of learning adaptive coverage strategies directly from real perimeters, thus overcoming the restrictive assumptions of classical methods. The approach is structured into three main phases: (i) development of a realistic simulation environment based on perimeters extracted from real-world scenarios, (ii) definition of a reward function that balances coverage completeness and path efficiency, and (iii) training and evaluation of the DRL agent using advanced algorithms such as PPO, SAC, and TD3.
The results obtained show that the DRL agent is able to guarantee complete area coverage while achieving more efficient paths compared to traditional approaches. Although it requires intensive training and non-negligible convergence times, the method demonstrates good generalization capabilities in realistic environments.
In conclusion, this work highlights the potential of DRL as an alternative to classical methods for CCPP, paving the way for future developments related to reward function optimization, the integration of transfer learning techniques, and validation on real robotic platforms.
Questa tesi propone un approccio innovativo al CCPP basato su algoritmi di Deep Reinforcement Learning (DRL). L’idea centrale è addestrare un agente intelligente in grado di apprendere strategie di copertura adattive direttamente da perimetri reali, superando le ipotesi restrittive dei metodi classici. L’approccio si articola in tre fasi principali: (i) sviluppo di un ambiente simulativo realistico basato su perimetri estratti da scenari concreti, (ii) definizione di una funzione di ricompensa che bilanci completezza della copertura ed efficienza del percorso, (iii) addestramento e valutazione dell’agente DRL con algoritmi avanzati come PPO, SAC e TD3.
I risultati ottenuti mostrano che l’agente DRL è in grado di garantire la copertura completa dell’area, ottenendo percorsi più efficienti rispetto agli approcci tradizionali. Pur richiedendo un addestramento intensivo e tempi di convergenza non trascurabili, il metodo dimostra una buona capacità di generalizzazione su ambienti realistici.
In conclusione, questo lavoro evidenzia il potenziale del DRL come alternativa ai metodi classici per il CCPP, aprendo la strada a futuri sviluppi legati all’ottimizzazione della funzione di ricompensa, all’integrazione di tecniche di transfer learning e alla validazione su piattaforme robotiche reali.
The problem of Complete Coverage Path Planning (CCPP) represents one of the fundamental challenges in mobile robotics, as it consists of determining a path that allows a robot to systematically visit the entire workspace. This capability is crucial in several application domains, including domestic robotics, precision agriculture, and industrial inspection. Traditional approaches to CCPP, based on cell decomposition techniques and predefined path planning schemes, ensure complete coverage but exhibit significant limitations when applied to complex and irregular real-world perimeters, introducing inefficiencies and redundancies in the paths.
This thesis proposes an innovative approach to CCPP based on Deep Reinforcement Learning (DRL) algorithms. The core idea is to train an intelligent agent capable of learning adaptive coverage strategies directly from real perimeters, thus overcoming the restrictive assumptions of classical methods. The approach is structured into three main phases: (i) development of a realistic simulation environment based on perimeters extracted from real-world scenarios, (ii) definition of a reward function that balances coverage completeness and path efficiency, and (iii) training and evaluation of the DRL agent using advanced algorithms such as PPO, SAC, and TD3.
The results obtained show that the DRL agent is able to guarantee complete area coverage while achieving more efficient paths compared to traditional approaches. Although it requires intensive training and non-negligible convergence times, the method demonstrates good generalization capabilities in realistic environments.
In conclusion, this work highlights the potential of DRL as an alternative to classical methods for CCPP, paving the way for future developments related to reward function optimization, the integration of transfer learning techniques, and validation on real robotic platforms.
File
| Nome file | Dimensione |
|---|---|
| tesi_Lor...detti.pdf | 6.47 Mb |
Contatta l’autore |
|