ETD

Archivio digitale delle tesi discusse presso l'Università di Pisa

Tesi etd-10312006-112051


Tipo di tesi
Tesi di laurea specialistica
Autore
Rigosa, Jacopo
URN
etd-10312006-112051
Titolo
Studio e realizzazione di algoritmi per l'analisi di segnali corticali prelevati mediante interfacce invasive
Dipartimento
INGEGNERIA
Corso di studi
INGEGNERIA BIOMEDICA
Relatori
Relatore Dario, Paolo
Relatore Micera, Silvestro
Relatore Gallese, Vittorio
Relatore Carpaneto, Jacopo
Parole chiave
  • F5
  • neuroni canonici
  • F1
  • clustering
  • SPM
  • super-paramagnetico
  • spike sorting
  • neurobotics
  • controllo motorio
  • trasformata wavelet
  • neuroni mirror
  • interfacce corticali
  • cluster merging
Data inizio appello
30/11/2006
Consultabilità
Completa
Riassunto
I grandi passi in avanti che le neuroscienze stanno facendo si devono in larga misura alla possibilità di effettuare ed elaborare registrazioni multiple nei siti neurologici: i recenti progressi nel campo dei sistemi di acquisizione commerciali consentono infatti di registrare moltissimi canali (dell'ordine delle centinaia) contemporaneamente. Le registrazioni simultanee di treni di spike di neuroni diversi aprono una finestra che guarda direttamente il meccanismo di funzionamento delle unità neurali in gruppo, paragonabili a tanti strumenti che suonano. Ascoltare e capire la musica è in una qualche maniera possibile, ma per poterla riprodurre è necessario sapere bene come funzionano i singoli strumenti e non solo, serve anche conoscere come vengono usati questi strumenti, in relazione con gli altri, per produrre quella specifica melodia.

Questo lavoro di tesi, svolto all'interno del progetto Neurobotics, ha come scopo la realizzazione di un algoritmo di spike sorting. Il progetto Neurobotics si pone come obiettivo la realizzazione di piattaforme cibernetiche interfacciabili direttamente con il sistema nervoso. Le scelte fatte nel corso di questa tesi sono state sempre e comunque motivate da questo obiettivo, ovvero sono state utilizzate tecniche tali da essere implementate efficacemente all'interno di queste piattaforme. Inoltre i dati devono essere elaborati in real-time affinchè la risposta neurale possa essere utilizzabile per controllare sistemi robotici di questo tipo, infatti, i dati devono essere elaborati in "real-time" affinchè la risposta ad uno stimolo neurale sia tempestiva.

Il problema del sorting è stato spezzato in due fasi sequenziali: l'individuazione degli eventi spike e la classificazione degli eventi individuati. Le wavelet si sono mostrate un potente strumento di analisi del segnale sia nella prima parte dell'elaborazione che nella seconda, perchè in grado di raccogliere una quantità di informazione notevolmente maggiore rispetto ai metodi utilizzati classicamente in questo specifico settore. Il "Wavelet Detection Method" (WDM) non solo prevede costi computazionali relativamente bassi, ma provvede ad un notevole miglioramento nell'elaborazione dei dati con bassi valori del SNR per segnali neurali con bassi "firing rate" (circostanza, questa, che spesso si verifica). Il WDM è, inoltre, un metodo molto flessibile, che può essere applicato ai dati neurali di qualsiasi tipo, senza la supervisione di un utente; caratteristica questa molto importante, perchè significa che l'algoritmo è robusto, oltre che predisposto ad una applicazione "on-line". Allo stesso modo, anche il metodo di classificazione proposto sfrutta la trasformata wavelet per la "feature extraction", seguito dal "super-paramagnetic clustering" (SPM) per la distinzione degli eventi individuati in gruppi. Analogamente, per la classificazione è stata utilizzata una tecnica non supervisionata con buone performance in termini di risparmio di tempo. L'idea di fondo è quella di usare come oggetti da classificare i coefficienti wavelet. Il sistema di classificazione SPM si basa sul principio che per una divisione in gruppi sia sufficiente la conoscenza delle interazioni dell'oggetto con i K elementi più vicini nello spazio delle caratteristiche, e quindi non richiede alcuna assunzione a priori sulla distribuzione dei dati che si vanno analizzando: anche questo aspetto è importante allo scopo di rendere il sistema di elaborazione robusto e non supervisionato.

In conclusione, in questo lavoro di tesi si sono accostati metodi leader nei loro specifici campi di applicazione, ottenendo un sistema ibrido che può essere utilizzato per il sorting senza assunzioni a priori sulla distribuzione dei dati.
File