logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-03212019-113513


Tipo di tesi
Tesi di laurea magistrale
Autore
CIAFFARAFA', MICHELE
URN
etd-03212019-113513
Titolo
Inversione di dati sismici tramite algoritmi genetici: analisi e confronto di diverse strategie di regolarizzazione nello spazio dei modelli
Dipartimento
SCIENZE DELLA TERRA
Corso di studi
GEOFISICA DI ESPLORAZIONE E APPLICATA
Relatori
relatore Prof. Mazzotti, Alfredo
correlatore Dott. Aleardi, Mattia
controrelatore Prof. Roddaro, Stefano
Parole chiave
  • Inverse problem
  • Geophysics
  • Geofisica
  • Genetic Algorithm
  • Edge preserving smoothing
  • Penalty term
Data inizio appello
12/04/2019
Consultabilità
Non consultabile
Data di rilascio
12/04/2089
Riassunto
I problemi inversi in geofisica sono spesso caratterizzati da funzioni oggetto con numerosi minimi. Per tale motivo si fa spesso ricorso ad algoritmi di ottimizzazione globale che, rispetto ai metodi locali (gradient-based), sono teoricamente in grado di esplorare in maniera esaustiva lo spazio dei modelli, risultando cosi meno influenzati dalla presenza di minimi locali nella funzione oggetto.

Tali metodi globali, però, risultano molto più costosi computazionalmente di quelli locali e mostrano ridotte capacità di convergenza in caso di funzioni oggetto con basso gradiente.

Per attenuare almeno in parte tali problematiche può essere utile utilizzare dei metodi di regolarizzazione, aggiungere cioè alla classica funzione obiettivo basata sulla differenza tra dato predetto ed osservato, dei termini di penalizzazione nello spazio dei modelli.

Tale strategia ha due obiettivi fondamentali: 1) Guidare l’esplorazione del metodo globale verso i modelli plausibili dal punto di vista fisico. 2) Ridurre il malcondizionamento del problema inverso.

I più diffusi metodi di regolarizzazione basati sulla norma 2 del modello o del gradiente del modello stesso, vanno spesso a penalizzare le transizioni laterali brusche nelle proprietà fisiche del sottosuolo che si cerca di stimare. Per ovviare a tale inconveniente può essere spesso utile implementare delle particolari tecniche di regolarizzazione molto utilizzare nell’elaborazione di immagini come la total variation (TV) regularization o altre tecniche di filtraggio basate su norme a basso ordine.

In questa tesi, si sono analizzate ed implementate una serie di strategie di regolarizzazione che permettessero, da un lato, di ridurre lo spazio dei modelli e aumentare la velocità di convergenza, dall’altro, di preservare le interfacce nette nel modello stimato.

Tali strategie di regolarizzazione sono state inserite all’interno di un’ottimizzazione con algoritmi genetici (GA), una classe di algoritmi euristici che, simulando l'evoluzione di una popolazione di individui con diversi caratteri genetici, permette di generare modelli sempre più promettenti a partire dai migliori della generazione precedente.

Più in dettaglio le prime tre strategie di regolarizzazione si basano su concetti ben noti in letteratura e sono: 1) norma 2 della differenza tra modello predetto e un modello a priori; 2) norma 2 della derivata del modello predetto; 3) TV regularization.

Le altre strategie implementate sono meno usuali nella risoluzione di problemi inversi geofisici, e includono all’interno della funzione oggetto o dell’algoritmo di ottimizzazione stesso, un filtraggio dei modelli tramite Edge-Preserving Smoothing (EPS) filter. Nel caso in cui tale filtraggio venga inserito solo all’interno del processo di ottimizzazione, la funzione oggetto sarà la classica norma 2 della differenza tra dato predetto e dato osservato e lo scopo del filtro EPS in questo contesto è quello di ridurre lo spazio dei modelli esplorabili andando ad operare come metodo di pre-condizionamento. A tal fine si applica il filtro EPS alla nuova popolazione di individui andando a valutare la funzione errore sull’individuo prima e dopo il filtraggio. Dopodiché, la probabilità che il nuovo individuo sia quello filtrato sarà pari al rapporto tra la funzione errore valutata sull’individuo prima e dopo il filtraggio.

Le strategie descritte precedentemente, sono state applicate su due differenti tipologie di inversione, entrambe applicate a dati sismici sintetici: Tomografia crosshole e Full Waveform Inversion (FWI).
Si è preliminarmente testato tutti gli algoritmi proposti sulla Tomografia crosshole, problema meno oneroso computazionalmente. Dopo di che, le strategie che si sono rivelate più promettenti sono state applicate alla FWI.
Per il test sulla crosshole tomography si è creato un modello molto schematico, che includeva due anomalie di velocità all’interno di una sezione a velocità costante. Mentre nel caso della FWI si è utilizzata una porzione superficiale del modello Marmousi. In entrambi i casi, l'effettiva efficacia delle strategie di regolarizzazione proposte è stata verificata visualizzando l'andamento sia della funzione oggetto, sia del model misfit tra modello predetto e modello vero.

A causa del severo malcondizionamento, l’applicazione di un’opportuna strategia di regolarizzazione all’inversione tomografica cross-hole è fondamentale per garantire risultati accettabili e realistici. In questo contesto, il filtro EPS si è rivelato una strategia efficace che garantisce una rapida convergenza verso il modello vero preservandone al contempo le interfacce.
Per quanto riguarda le strategie di regolarizzazione canoniche, solo la TV regularization e la norma 2 del gradiente del modello hanno garantito buoni risultati.

Nel caso della FWI, tutti i metodi applicati hanno offerto risultati accettabili e coerenti con quanto atteso da ogni strategia di regolarizzazione. Ma a differenza di quanto ottenuto nel caso della tomografia, nessun metodo si è rivelato fondamentale per garantire risultati fisicamente accettabili. In altri termini, tutti i metodi permettono di ottenere un modello finale ragionevole, e nessuno garantisce performance (e.s. rapidità di convergenza) nettamente migliore rispetto altri.
File