Tesi etd-03202019-113411 |
Link copiato negli appunti
Tipo di tesi
Tesi di laurea magistrale
Autore
GUARISCHI, BEATRICE
URN
etd-03202019-113411
Titolo
Continuous shooting: deblending methodologies
Dipartimento
SCIENZE DELLA TERRA
Corso di studi
GEOFISICA DI ESPLORAZIONE E APPLICATA
Relatori
relatore Prof. Mazzotti, Alfredo
correlatore Dott. Webb, Bruce
correlatore Prof. Stucchi, Eusebio Maria
controrelatore Prof. Tognarelli, Andrea
correlatore Dott. Webb, Bruce
correlatore Prof. Stucchi, Eusebio Maria
controrelatore Prof. Tognarelli, Andrea
Parole chiave
- blended
- blending noise
- continuous
- deblending
- marine
- processing
- seismic
- shooting
Data inizio appello
12/04/2019
Consultabilità
Non consultabile
Data di rilascio
12/04/2089
Riassunto
Il continuous shooting è una tecnica innovativa di acquisizione di dati sismici, che permette di registrare tracce più lunghe dell’intervallo di tempo tra due sorgenti successive. Prende il nome di continuous shooting proprio perché le sorgenti vengono attivate in modo continuo, senza attendere che l’energia della sorgente precedente sia decaduta al di sotto di una soglia e i ricevitori registrano in modo continuo.
Nelle acquisizioni convenzionali, le compagnie contrattiste cercavano di fare in modo che la distanza temporale tra due shot successivi fosse mantenuta costante durante l’acquisizione, in modo da evitare la contaminazione tra shot consecutivi. Oggi, le compagnie di acquisizione stanno testando metodologie più economiche, che riducano al minimo la permanenza della nave sismica nell’area di indagine. Negli ultimi cinque anni, in particolare, sono state ampiamente utilizzate le acquisizioni multi-sorgente con la tecnica del continuous shooting che consentono di ridurre i tempi di acquisizione. Come conseguenza, ogni registrazione sismica è composta dalla sovrapposizione di contributi appartenenti a sorgenti successive e, perciò, i dati acquisiti sono comunemente chiamati blended data. Lo svantaggio intrinseco di questa metodologia risiede nel fatto che la sovrapposizione dei differenti contributi produce un’interferenza sismica, il cosiddetto blending noise, che può nascondere il segnale e deve essere rimossa. I processi che portano alla rimozione di tale disturbo sono noti come deblending.
Per la tesi sono stati utilizzati due dataset marini: un modello sintetico generato da Eni, che riproduce un’acquisizione continuous shooting con una sola sorgente, e un dataset reale acquisito sempre in continuous shooting, con l’impiego di tre sorgenti. Lo scopo di questo lavoro è stato quello di realizzare una sequenza di processing volta al deblending del dato, che eliminasse l’interferenza sismica generata dallo shot successivo, senza compromettere le ampiezze del segnale d’interesse.
Per lo sviluppo della sequenza di deblending si è ricorso all’utilizzo di tre software: Omega2, ProMAX e Matlab. Inizialmente, alcuni algoritmi tradizionali sono stati testati sul dataset sintetico per studiarne gli effetti, in seguito, alcune sequenze di deblending sono state applicate al caso reale. Il fatto che nel dominio common shot il blending noise si comporti in modo coerente, ha permesso la sua attenuazione tramite la trasformata F-K, la trasformata Tau-P e la Decomposizione ai Valori Singolari, discriminandolo dal segnale grazie alle diverse pendenze degli eventi. Invece, negli altri domini, come common offset e CMP, ci si è basati sulla natura incoerente del rumore, che è stato rimosso con algoritmi come l’Anomalous Amplitude Noise Attenuation e il Time-Frequency Denoising.
Alla fine, tra le sequenze provate sul dataset reale, due sono state analizzate ulteriormente. La prima ha previsto l’utilizzo in cascata delle trasformate F-K e Tau-P sul dato in common shot e, successivamente, tre passaggi con l’algoritmo Anomalous Amplitude Noise Attenuation in CMP, common offset e common shot per rimuovere i residui dell’interferenza sismica sugli offset più brevi. Nella seconda è stata implementata la Decomposizione ai Valori Singolari, in combinazione con l’algoritmo Time-Frequency Denoising.
Risultati soddisfacenti sono stati ottenuti in entrambi i casi; l’interferenza è stata rimossa e il confronto tra le ampiezze di due eventi, sul dato blended e su quello dopo deblending, ha confermato la corretta conservazione delle ampiezze.
Abstract
Continuous shooting has been created as a methodology to record long trace lengths during acquisition. Contractors used to make sure that between two acquired shots, the distance was kept constant so that the shot record does not get contaminated by the successive or previous shots.
Nowadays with the economic situation having pushed Oil and Gas companies to reduce spending, seismic contractors have reverted to acquisition methods minimizing their footprint inside the survey areas. In the last five years, multi-source acquisitions using continuous shooting have come into fashion allowing the vessels to acquire faster. As a consequence to this acquisition scenario, each seismic record is composed of the overlap of successive shots as well as the previous one. For this reason, it is referred to it as blended acquisition and the recorded data are called blended data.
The drawback is that overlapping shots produce a seismic interference, also knew as blending noise, which may hide the signal and must be removed.
In this study, we worked on two marine datasets. The first was a synthetic model created by Eni that represented a single source acquisition with continuous shooting. The second was a real dataset acquired with triple sources configuration. The purpose of the thesis is to find a sequence for deblending that removes the seismic interference without jeopardizing the signal of interest.
The processing of the datasets has been made in time domain, using three software: Omega2, SeisSpace ProMAX and Matlab. Firstly, some common traditional algorithms have been tested on the synthetic dataset, then some deblending sequences have been applied to the real case.
In common shot gathers the blending noise is coherent, hence it has been discriminated from the signal by leveraging its dip, through the implementation of F-K transform, Tau-P transform and Singular Value Decomposition. In other gather domains, such as common offset and CMP, the incoherent nature of noise has permitted the noise suppression using algorithms like Anomalous Amplitude Noise Attenuation and Time-Frequency Denoising.
Finally, two sequences, applied on real data, have been discussed and analysed. The first one consists in the application in common shot gather of an F-K transform and a Tau-P transform, and then three passes of the Anomalous Amplitude Noise Attenuation tool, respectively in CMP, common offset and common shot, to remove the last residuals on the nearest offsets. Filters have been carefully designed to preserve the signal.
The latter sequence has been focused on the use of Singular Value Decomposition and an algorithm of time-frequency denoising.
Satisfactory results, in seismic interference removal, have been achieved with both sequences. A comparison of the amplitudes of two events, on the blended and on the deblended records, has been done to verify the correct preservation of the signal. The comparison has confirmed that the amplitudes of the analysed events have been correctly preserved. Hence, except for the seismic interference removal, the record has been left untouched.
Nelle acquisizioni convenzionali, le compagnie contrattiste cercavano di fare in modo che la distanza temporale tra due shot successivi fosse mantenuta costante durante l’acquisizione, in modo da evitare la contaminazione tra shot consecutivi. Oggi, le compagnie di acquisizione stanno testando metodologie più economiche, che riducano al minimo la permanenza della nave sismica nell’area di indagine. Negli ultimi cinque anni, in particolare, sono state ampiamente utilizzate le acquisizioni multi-sorgente con la tecnica del continuous shooting che consentono di ridurre i tempi di acquisizione. Come conseguenza, ogni registrazione sismica è composta dalla sovrapposizione di contributi appartenenti a sorgenti successive e, perciò, i dati acquisiti sono comunemente chiamati blended data. Lo svantaggio intrinseco di questa metodologia risiede nel fatto che la sovrapposizione dei differenti contributi produce un’interferenza sismica, il cosiddetto blending noise, che può nascondere il segnale e deve essere rimossa. I processi che portano alla rimozione di tale disturbo sono noti come deblending.
Per la tesi sono stati utilizzati due dataset marini: un modello sintetico generato da Eni, che riproduce un’acquisizione continuous shooting con una sola sorgente, e un dataset reale acquisito sempre in continuous shooting, con l’impiego di tre sorgenti. Lo scopo di questo lavoro è stato quello di realizzare una sequenza di processing volta al deblending del dato, che eliminasse l’interferenza sismica generata dallo shot successivo, senza compromettere le ampiezze del segnale d’interesse.
Per lo sviluppo della sequenza di deblending si è ricorso all’utilizzo di tre software: Omega2, ProMAX e Matlab. Inizialmente, alcuni algoritmi tradizionali sono stati testati sul dataset sintetico per studiarne gli effetti, in seguito, alcune sequenze di deblending sono state applicate al caso reale. Il fatto che nel dominio common shot il blending noise si comporti in modo coerente, ha permesso la sua attenuazione tramite la trasformata F-K, la trasformata Tau-P e la Decomposizione ai Valori Singolari, discriminandolo dal segnale grazie alle diverse pendenze degli eventi. Invece, negli altri domini, come common offset e CMP, ci si è basati sulla natura incoerente del rumore, che è stato rimosso con algoritmi come l’Anomalous Amplitude Noise Attenuation e il Time-Frequency Denoising.
Alla fine, tra le sequenze provate sul dataset reale, due sono state analizzate ulteriormente. La prima ha previsto l’utilizzo in cascata delle trasformate F-K e Tau-P sul dato in common shot e, successivamente, tre passaggi con l’algoritmo Anomalous Amplitude Noise Attenuation in CMP, common offset e common shot per rimuovere i residui dell’interferenza sismica sugli offset più brevi. Nella seconda è stata implementata la Decomposizione ai Valori Singolari, in combinazione con l’algoritmo Time-Frequency Denoising.
Risultati soddisfacenti sono stati ottenuti in entrambi i casi; l’interferenza è stata rimossa e il confronto tra le ampiezze di due eventi, sul dato blended e su quello dopo deblending, ha confermato la corretta conservazione delle ampiezze.
Abstract
Continuous shooting has been created as a methodology to record long trace lengths during acquisition. Contractors used to make sure that between two acquired shots, the distance was kept constant so that the shot record does not get contaminated by the successive or previous shots.
Nowadays with the economic situation having pushed Oil and Gas companies to reduce spending, seismic contractors have reverted to acquisition methods minimizing their footprint inside the survey areas. In the last five years, multi-source acquisitions using continuous shooting have come into fashion allowing the vessels to acquire faster. As a consequence to this acquisition scenario, each seismic record is composed of the overlap of successive shots as well as the previous one. For this reason, it is referred to it as blended acquisition and the recorded data are called blended data.
The drawback is that overlapping shots produce a seismic interference, also knew as blending noise, which may hide the signal and must be removed.
In this study, we worked on two marine datasets. The first was a synthetic model created by Eni that represented a single source acquisition with continuous shooting. The second was a real dataset acquired with triple sources configuration. The purpose of the thesis is to find a sequence for deblending that removes the seismic interference without jeopardizing the signal of interest.
The processing of the datasets has been made in time domain, using three software: Omega2, SeisSpace ProMAX and Matlab. Firstly, some common traditional algorithms have been tested on the synthetic dataset, then some deblending sequences have been applied to the real case.
In common shot gathers the blending noise is coherent, hence it has been discriminated from the signal by leveraging its dip, through the implementation of F-K transform, Tau-P transform and Singular Value Decomposition. In other gather domains, such as common offset and CMP, the incoherent nature of noise has permitted the noise suppression using algorithms like Anomalous Amplitude Noise Attenuation and Time-Frequency Denoising.
Finally, two sequences, applied on real data, have been discussed and analysed. The first one consists in the application in common shot gather of an F-K transform and a Tau-P transform, and then three passes of the Anomalous Amplitude Noise Attenuation tool, respectively in CMP, common offset and common shot, to remove the last residuals on the nearest offsets. Filters have been carefully designed to preserve the signal.
The latter sequence has been focused on the use of Singular Value Decomposition and an algorithm of time-frequency denoising.
Satisfactory results, in seismic interference removal, have been achieved with both sequences. A comparison of the amplitudes of two events, on the blended and on the deblended records, has been done to verify the correct preservation of the signal. The comparison has confirmed that the amplitudes of the analysed events have been correctly preserved. Hence, except for the seismic interference removal, the record has been left untouched.
File
Nome file | Dimensione |
---|---|
Tesi non consultabile. |