Tesi etd-05172016-104123 |
Link copiato negli appunti
Tipo di tesi
Tesi di laurea magistrale
Autore
ORLANDI, ELENA
URN
etd-05172016-104123
Titolo
ELABORAZIONE DELLE COMPONENTI ORIZZONTALI DI UN RILIEVO 3D OBC IN WEST AFRICA (OFFSHORE)
Dipartimento
SCIENZE DELLA TERRA
Corso di studi
GEOFISICA DI ESPLORAZIONE E APPLICATA
Relatori
relatore Prof. Mazzotti, Alfredo
controrelatore Prof. Stucchi, Eusebio Maria
controrelatore Prof. Stucchi, Eusebio Maria
Parole chiave
- onde
- processing
- Shear
Data inizio appello
10/06/2016
Consultabilità
Non consultabile
Data di rilascio
10/06/2086
Riassunto
Il lavoro di tesi consiste nell’elaborazione sismica di una Receiver Line estratta da un rilievo 3D marino, scoppiato a largo del West Africa.
Durante il lavoro vengono messe in luce le criticità relative a questo tipo di processing e le soluzioni adottate.
Si tratta di un’acquisizione “Ocean Bottom Cable” (OBC) a quattro componenti (4C) e la tesi si svolge sull’elaborazione delle sole componenti orizzontali X e Y.
Le onde S registrate sono in realtà onde P-Sv convertite, in quanto la sorgente, che è costituita da un array di Air-Gun, è una sorgente di onde compressionali.
Il vantaggio di processare le converted waves, risiede nella capacità di ottenere una migliore sezione stack attraverso i camini di gas individuati nell’area in quanto, le onde S al contrario delle onde P, non dipendono dal coefficiente di incompressibilità.
L’acquisizione è stata effettuata in parallel shooting (linee di ricevitore parallele alle linee di sorgente) con Receiver Lines distanziate tra loro 600 metri e Source Lines distanziate tra loro 50 metri.
Tra tutte le Receiver Lines del rilievo, il processing oggetto di tesi, interessa solo la Receiver Line 1533 e le 4 Source Lines ad essa più vicine.
Ai dati di partenza pre-processing era stato già applicato il debubble (rimozione dell’effetto bolla della sorgente) il designature (conversione a fase minima della sorgente), mentre le correzioni statiche al datum (livello dell’acqua) sono state calcolate e salvate nelle header.
L’elaborazione, che vede protagoniste le due componenti orizzontali X e Y (registrate dai ricevitori multicomponente), è stata eseguita attraverso il software OMEGA.
Inizialmente i dati sono stati visualizzati in dominio Common Receiver Gathers e Common Source Gathers in modo da: differenziare i vari eventi sismici presenti, individuare sensori malfunzionanti o malposizionati ed infine, per effettuare interattivamente una prima analisi spettrale così da valutare velocemente la vector fidelity dei sensori (l’accoppiamento dei sensori con il fondo mare), che risulta essere abbastanza buona.
Conclusa la prima analisi dei dati, si è proceduto con il vero e proprio data processing. Il processing delle onde S è in parte simile al processing delle onde P, perciò con la tesi si è approfondita esclusivamente quella parte dell’elaborazione caratteristica delle onde di taglio che implica ipotesi iniziali sul tipo di conversione principale.
L’ ipotesi iniziale fatta è quella che la conversione avvenga sugli orizzonti in profondità, in quanto è il caso che si incontra più comunemente.
Gli step applicati possono essere così riassunti:
- EQUALIZZAZIONE DEL DATO SISMICO: a causa dei problemi di vector fidelity, l’equalizzazione occorre per bilanciare all’interno dello stesso Receiver Gather, la risposta tra i sensori (X e Y).
La procedura che effettua l’algoritmo consiste nel calcolare per ogni Receiver Gather della componente (X) un operatore di equalizzazione che verrà convoluto per ogni traccia della componente Y, appartenente allo stesso Receiver Gather.
A seguito dell’equalizzazione ci si è resi conto che il dato peggiora invece che migliorare. Viene enfatizzato eccessivamente il rumore già presente a causa dello scattering in superficie, nell’area di Reef.
Quindi sulla base delle considerazioni precedentemente fatte comparando gli spettri di frequenza, ossia che già in partenza si ha un buon valore di Vector Fidelity, si è deciso di by-passare tale step.
-ROTAZIONE DELLE COMPONENTI: quando il cavo viene lasciato cadere sul fondo mare non si conosce l’orientazione che assumono i sensori. Questa orientazione deve essere determinata rispetto all’azimuth di acquisizione, al fine di ruotare l’energia registrata dalle componenti X e Y in direzione rispettivamente radiale (direzione della congiungente sorgente-ricevitore) e trasversa (perpendicolare alla radiale).
Ipotizzando un mezzo isotropo, tutta l’energia sarà concentrata nella componente radiale. L’ipotesi di anisotropia azimuthale non è stata considerata in questa tesi.
L’orientazione dei sensori è stata determinata analizzando come si distribuisce l’energia dei primi arrivi tra componente X e componente Y. L’algoritmo mette in relazione la distribuzione dell’energia tra le due componenti con l’angolo di rotazione.
Essendo questa acquisizione un parallel shooting, ed avendo in sensori atterrati sul fondale con orientazione congruente a quella della Receiver Line, per offset medio-lunghi le rotazioni necessarie sono state di piccola entità.
-FILTRAGGIO F-K: gli eventi lineari presenti nel dato come rifrazioni, arrivi diretti e Scholte Waves, non avendo alcuna utilità sull’interpretazione finale, sono stati eliminati attraverso un filtro che agisce nel dominio frequenza-numero d’onda, rimuovendo così buona parte del rumore dalla sezione stack.
Il vantaggio di usare questa tipologia di filtro risiede nel poter selezionare gli eventi da eliminare sulla base di due parametri: frequenza e velocità(pendenza) dell’evento stesso.
La configurazione ideale del filtro è stata scelta per tentativi; lo scopo era eliminare più eventi lineari possibili senza intaccare la sismica utile, ossia le riflessioni P-Sv.
-CCP BINNING: L’ipotesi iniziale fatta era quella di avere onde che si convertono su ogni orizzonte in profondità.
Le riflessioni P-Sv sono caratterizzate da un ray-path asimmetrico in quanto il punto di conversione si troverà ad un distanza dal midpoint che varia in funzione dell’offset, della profondità del riflettore e del rapporto Vp/Vs (equazione di Tessmer & Behle). Il rapporto tra le velocità viene definito Gamma Value e corrisponde al parametro incognito.
Quest’ultimo solitamente viene determinato dalla sismica, ma essendo nelle fasi iniziali del processing e quindi non avendo una sismica affidabile (in termini di velocità e attendibilità dei riflettori nelle sezioni stack), è stato estrapolato dai Logs di pozzo.
L’algoritmo applica una ri-mappatura della sismica assegnando a ciascuna traccia registrata la sua corretta posizione spaziale.
Variando il rapporto Vp/Vs cambia anche lo stack degli orizzonti. Il miglior stacking della sezione, a parità di velocità, lo si avrebbe dovuto avere per un rapporto Vp/Vs pari a quello estrapolato dai Logs. Effettuando alcuni tentativi sono però sorti dei dubbi, dato che si otteneva una buona focalizzazione della sezione anche con rapporti molto più bassi.
La sismica organizzata in CCP sarà l’input della successiva analisi di velocità
-ANALISI DI VELOCITA’: fino ad ora, le velocità S utilizzate erano velocità preliminari, ricavate dallo scaling del campo di velocità P (conosciuto a priori da un altro processing).
Con l’analisi di velocità, l’obbiettivo è migliorare il modello di velocità preliminare ricavato attraverso tale scanning e trovare il campo di velocità S che permette il migliore stacking.
Sulla base dei dubbi sorti al termine del re-mapping in CCP , avendo ora un campo di velocità S migliore e quindi un imaging più affidabile, per verificare che le operazioni fatte fino ad ora siano corrette si è proceduto ad un quality control. Questo consiste nel calcolare il Gamma zero (rapporto Vp/Vs a pseudo zero offset) con il metodo dell’Event Registration, il quale mette in relazione i tempi a cui si trova lo stesso evento sismico, sia sulla sezione stack P-Sv che sulla sezione stack P.
Da tale verifica è emerso che il Gamma zero non corrisponde al rapporto Vp/Vs estrapolato dai Logs. Questo implica che il modello considerato fino ad ora, ossia che la conversione principale delle onde P avviene sugli orizzonti in profondità, non è più sostenibile. Da questo momento si è iniziato a considerare come valido un secondo modello, ossia che la conversione più efficiente delle onde P avvenga nel near surface, causa un contrasto di impedenza molto forte generato dal contatto tra il materiale più sciolto del fondo mare e la formazione calcarea (molto veloce) subito sottostante.
Quindi le onde di taglio registrate ai sensori non sono saranno più onde P-Sv, ma onde P-Sv-Sv e viaggeranno per un piccolo tratto come onda P , fino approssimativamente al top dei calcari (interfaccia di conversione) mantenendo valido il concetto di ray-path asimmetrico, dopodiché proseguiranno il loro cammino come onde SS con ray-path simmetrico.
Il re-mapping in conversion point varrebbe quindi solo fino alla prima interfaccia che è estremamente prossima al fondo mare, dopodiché la traiettoria dei raggi diventa quasi simmetrica e questa correzione non è più necessaria.
A seguito di un attento confronto tra sezione stack pre e post CCP-Binning si è giunti alla conclusione che le differenze tra le due in superficie sono trascurabili, tanto da scartare in toto l’operazione di re-mapping.
A questo punto si è reso necessario ri-calcolare l’analisi di velocità sui dati in CMP e le velocità ricavate saranno necessarie, oltre a focalizzare la sezione, anche per applicare le successive correzioni statiche residuali.
-CORREZIONI STATICHE RESIDUALI: le onde di taglio in particolar modo, risentono molto delle variazioni localizzate di velocità nel near-surface che possono introdurre “shift temporali surface-consistent”, anche piuttosto grandi.
Le correzioni statiche residuali vengono applicate per rimuovere questi ritardi temporali e l’obbiettivo finale è quello di ottenere la migliore sezione sismica.
Per eliminare gli shift temporali tra tracce appartenenti a diverse coppie sorgente-ricevitore, è necessario ottimizzare la sezione stack (stack power) utilizzando come metodo la minimizzazione dell’objective function (energia potenziale del sistema).
L’algoritmo utilizzato opera comparando l’ allineamento massimo delle tracce all’interno del dato sismico, con il raggiungimento dello stato fondamentale di energia di un qualunque sistema fisico.
Correzioni statiche residuali e analisi di velocità vengono calcolate in cicli iterativi in quanto le due operazioni si migliorano a vicenda e ci si ferma nel momento in cui il risultato rimane stazionario. In tesi si sono effettuati due cicli di correzioni statiche residuali.
-DECONVOLUZIONE: Un procedimento iterativo simile dovrebbe avvenire anche tra correzioni statiche residuali e deconvoluzione in quanto quest’ultima, applicata antecedentemente, potrebbe ridurre l’effetto ringing dei riflettori causato dal fenomeno chiamato “Cycle Skipping”. Questo fenomeno si manifesta quando l’ondina di propagazione presenta molti side lobes e questo può generare, a seguito delle correzioni statiche residuali, un allineamento di picchi e gole non corrispondenti allo stesso evento. Per i dati oggetto di tesi si è però constatato che la deconvoluzione, applicata prima delle correzioni statiche residuali, non apportava particolari miglioramenti in questi termini, quindi si è deciso di applicarla a posteriore al fine di eliminare le riflessioni multiple (Source Side Peg Leg).
Per determinare l’operatore di deconvoluzione ottimale da applicare al dato sono stati effettuati test con Gap differenti, comparando poi i risultati ottenuti con il dato di input.
Al termine di tale procedura, si è scelto quell’operatore in grado di eliminare la maggior parte delle riflessioni multiple senza intaccare le primarie. Inoltre, avendo smagrito l’ondina si è ottenuto un aumento in ampiezza lungo tutto l’asse delle frequenze che ha portato ad un aumento di risoluzione nel dato sismico.
Dopo la deconvoluzione è stato creato lo stack finale e questo corrisponde all’ultimo step di processing elaborato in tesi. La migrazione infatti è stata effettuata in tempi successivi internamente dall’azienda.
Lo scopo finale della tesi è valutare come varia la sezione stack attraverso i camini di gas presenti nell’area di acquisizione, confrontando il dato ottenuto dal processing delle onde Shear (attuale tesi di laurea) e il dato ottenuto dal processing delle onde compressionali, fornito dall’azienda.
Sebbene le onde P rimangano le preferite in fase di acquisizione, in quanto consentono di ottenere un’interpretazione più dettagliata della geologia sotto-superficiale tuttavia, le onde S possono essere utilizzate come complementari. Esse sono in grado di fornire maggiori informazioni in presenza di gas diffuso (grazie alla loro indipendenza dal coefficiente di incompressibilità) ed inoltre, consentono di ottenere una stima più accurata della geologia superficiale.
La loro elaborazione deve essere condotta con attenzione e costante controllo delle ipotesi fatte a priori.
Durante il lavoro vengono messe in luce le criticità relative a questo tipo di processing e le soluzioni adottate.
Si tratta di un’acquisizione “Ocean Bottom Cable” (OBC) a quattro componenti (4C) e la tesi si svolge sull’elaborazione delle sole componenti orizzontali X e Y.
Le onde S registrate sono in realtà onde P-Sv convertite, in quanto la sorgente, che è costituita da un array di Air-Gun, è una sorgente di onde compressionali.
Il vantaggio di processare le converted waves, risiede nella capacità di ottenere una migliore sezione stack attraverso i camini di gas individuati nell’area in quanto, le onde S al contrario delle onde P, non dipendono dal coefficiente di incompressibilità.
L’acquisizione è stata effettuata in parallel shooting (linee di ricevitore parallele alle linee di sorgente) con Receiver Lines distanziate tra loro 600 metri e Source Lines distanziate tra loro 50 metri.
Tra tutte le Receiver Lines del rilievo, il processing oggetto di tesi, interessa solo la Receiver Line 1533 e le 4 Source Lines ad essa più vicine.
Ai dati di partenza pre-processing era stato già applicato il debubble (rimozione dell’effetto bolla della sorgente) il designature (conversione a fase minima della sorgente), mentre le correzioni statiche al datum (livello dell’acqua) sono state calcolate e salvate nelle header.
L’elaborazione, che vede protagoniste le due componenti orizzontali X e Y (registrate dai ricevitori multicomponente), è stata eseguita attraverso il software OMEGA.
Inizialmente i dati sono stati visualizzati in dominio Common Receiver Gathers e Common Source Gathers in modo da: differenziare i vari eventi sismici presenti, individuare sensori malfunzionanti o malposizionati ed infine, per effettuare interattivamente una prima analisi spettrale così da valutare velocemente la vector fidelity dei sensori (l’accoppiamento dei sensori con il fondo mare), che risulta essere abbastanza buona.
Conclusa la prima analisi dei dati, si è proceduto con il vero e proprio data processing. Il processing delle onde S è in parte simile al processing delle onde P, perciò con la tesi si è approfondita esclusivamente quella parte dell’elaborazione caratteristica delle onde di taglio che implica ipotesi iniziali sul tipo di conversione principale.
L’ ipotesi iniziale fatta è quella che la conversione avvenga sugli orizzonti in profondità, in quanto è il caso che si incontra più comunemente.
Gli step applicati possono essere così riassunti:
- EQUALIZZAZIONE DEL DATO SISMICO: a causa dei problemi di vector fidelity, l’equalizzazione occorre per bilanciare all’interno dello stesso Receiver Gather, la risposta tra i sensori (X e Y).
La procedura che effettua l’algoritmo consiste nel calcolare per ogni Receiver Gather della componente (X) un operatore di equalizzazione che verrà convoluto per ogni traccia della componente Y, appartenente allo stesso Receiver Gather.
A seguito dell’equalizzazione ci si è resi conto che il dato peggiora invece che migliorare. Viene enfatizzato eccessivamente il rumore già presente a causa dello scattering in superficie, nell’area di Reef.
Quindi sulla base delle considerazioni precedentemente fatte comparando gli spettri di frequenza, ossia che già in partenza si ha un buon valore di Vector Fidelity, si è deciso di by-passare tale step.
-ROTAZIONE DELLE COMPONENTI: quando il cavo viene lasciato cadere sul fondo mare non si conosce l’orientazione che assumono i sensori. Questa orientazione deve essere determinata rispetto all’azimuth di acquisizione, al fine di ruotare l’energia registrata dalle componenti X e Y in direzione rispettivamente radiale (direzione della congiungente sorgente-ricevitore) e trasversa (perpendicolare alla radiale).
Ipotizzando un mezzo isotropo, tutta l’energia sarà concentrata nella componente radiale. L’ipotesi di anisotropia azimuthale non è stata considerata in questa tesi.
L’orientazione dei sensori è stata determinata analizzando come si distribuisce l’energia dei primi arrivi tra componente X e componente Y. L’algoritmo mette in relazione la distribuzione dell’energia tra le due componenti con l’angolo di rotazione.
Essendo questa acquisizione un parallel shooting, ed avendo in sensori atterrati sul fondale con orientazione congruente a quella della Receiver Line, per offset medio-lunghi le rotazioni necessarie sono state di piccola entità.
-FILTRAGGIO F-K: gli eventi lineari presenti nel dato come rifrazioni, arrivi diretti e Scholte Waves, non avendo alcuna utilità sull’interpretazione finale, sono stati eliminati attraverso un filtro che agisce nel dominio frequenza-numero d’onda, rimuovendo così buona parte del rumore dalla sezione stack.
Il vantaggio di usare questa tipologia di filtro risiede nel poter selezionare gli eventi da eliminare sulla base di due parametri: frequenza e velocità(pendenza) dell’evento stesso.
La configurazione ideale del filtro è stata scelta per tentativi; lo scopo era eliminare più eventi lineari possibili senza intaccare la sismica utile, ossia le riflessioni P-Sv.
-CCP BINNING: L’ipotesi iniziale fatta era quella di avere onde che si convertono su ogni orizzonte in profondità.
Le riflessioni P-Sv sono caratterizzate da un ray-path asimmetrico in quanto il punto di conversione si troverà ad un distanza dal midpoint che varia in funzione dell’offset, della profondità del riflettore e del rapporto Vp/Vs (equazione di Tessmer & Behle). Il rapporto tra le velocità viene definito Gamma Value e corrisponde al parametro incognito.
Quest’ultimo solitamente viene determinato dalla sismica, ma essendo nelle fasi iniziali del processing e quindi non avendo una sismica affidabile (in termini di velocità e attendibilità dei riflettori nelle sezioni stack), è stato estrapolato dai Logs di pozzo.
L’algoritmo applica una ri-mappatura della sismica assegnando a ciascuna traccia registrata la sua corretta posizione spaziale.
Variando il rapporto Vp/Vs cambia anche lo stack degli orizzonti. Il miglior stacking della sezione, a parità di velocità, lo si avrebbe dovuto avere per un rapporto Vp/Vs pari a quello estrapolato dai Logs. Effettuando alcuni tentativi sono però sorti dei dubbi, dato che si otteneva una buona focalizzazione della sezione anche con rapporti molto più bassi.
La sismica organizzata in CCP sarà l’input della successiva analisi di velocità
-ANALISI DI VELOCITA’: fino ad ora, le velocità S utilizzate erano velocità preliminari, ricavate dallo scaling del campo di velocità P (conosciuto a priori da un altro processing).
Con l’analisi di velocità, l’obbiettivo è migliorare il modello di velocità preliminare ricavato attraverso tale scanning e trovare il campo di velocità S che permette il migliore stacking.
Sulla base dei dubbi sorti al termine del re-mapping in CCP , avendo ora un campo di velocità S migliore e quindi un imaging più affidabile, per verificare che le operazioni fatte fino ad ora siano corrette si è proceduto ad un quality control. Questo consiste nel calcolare il Gamma zero (rapporto Vp/Vs a pseudo zero offset) con il metodo dell’Event Registration, il quale mette in relazione i tempi a cui si trova lo stesso evento sismico, sia sulla sezione stack P-Sv che sulla sezione stack P.
Da tale verifica è emerso che il Gamma zero non corrisponde al rapporto Vp/Vs estrapolato dai Logs. Questo implica che il modello considerato fino ad ora, ossia che la conversione principale delle onde P avviene sugli orizzonti in profondità, non è più sostenibile. Da questo momento si è iniziato a considerare come valido un secondo modello, ossia che la conversione più efficiente delle onde P avvenga nel near surface, causa un contrasto di impedenza molto forte generato dal contatto tra il materiale più sciolto del fondo mare e la formazione calcarea (molto veloce) subito sottostante.
Quindi le onde di taglio registrate ai sensori non sono saranno più onde P-Sv, ma onde P-Sv-Sv e viaggeranno per un piccolo tratto come onda P , fino approssimativamente al top dei calcari (interfaccia di conversione) mantenendo valido il concetto di ray-path asimmetrico, dopodiché proseguiranno il loro cammino come onde SS con ray-path simmetrico.
Il re-mapping in conversion point varrebbe quindi solo fino alla prima interfaccia che è estremamente prossima al fondo mare, dopodiché la traiettoria dei raggi diventa quasi simmetrica e questa correzione non è più necessaria.
A seguito di un attento confronto tra sezione stack pre e post CCP-Binning si è giunti alla conclusione che le differenze tra le due in superficie sono trascurabili, tanto da scartare in toto l’operazione di re-mapping.
A questo punto si è reso necessario ri-calcolare l’analisi di velocità sui dati in CMP e le velocità ricavate saranno necessarie, oltre a focalizzare la sezione, anche per applicare le successive correzioni statiche residuali.
-CORREZIONI STATICHE RESIDUALI: le onde di taglio in particolar modo, risentono molto delle variazioni localizzate di velocità nel near-surface che possono introdurre “shift temporali surface-consistent”, anche piuttosto grandi.
Le correzioni statiche residuali vengono applicate per rimuovere questi ritardi temporali e l’obbiettivo finale è quello di ottenere la migliore sezione sismica.
Per eliminare gli shift temporali tra tracce appartenenti a diverse coppie sorgente-ricevitore, è necessario ottimizzare la sezione stack (stack power) utilizzando come metodo la minimizzazione dell’objective function (energia potenziale del sistema).
L’algoritmo utilizzato opera comparando l’ allineamento massimo delle tracce all’interno del dato sismico, con il raggiungimento dello stato fondamentale di energia di un qualunque sistema fisico.
Correzioni statiche residuali e analisi di velocità vengono calcolate in cicli iterativi in quanto le due operazioni si migliorano a vicenda e ci si ferma nel momento in cui il risultato rimane stazionario. In tesi si sono effettuati due cicli di correzioni statiche residuali.
-DECONVOLUZIONE: Un procedimento iterativo simile dovrebbe avvenire anche tra correzioni statiche residuali e deconvoluzione in quanto quest’ultima, applicata antecedentemente, potrebbe ridurre l’effetto ringing dei riflettori causato dal fenomeno chiamato “Cycle Skipping”. Questo fenomeno si manifesta quando l’ondina di propagazione presenta molti side lobes e questo può generare, a seguito delle correzioni statiche residuali, un allineamento di picchi e gole non corrispondenti allo stesso evento. Per i dati oggetto di tesi si è però constatato che la deconvoluzione, applicata prima delle correzioni statiche residuali, non apportava particolari miglioramenti in questi termini, quindi si è deciso di applicarla a posteriore al fine di eliminare le riflessioni multiple (Source Side Peg Leg).
Per determinare l’operatore di deconvoluzione ottimale da applicare al dato sono stati effettuati test con Gap differenti, comparando poi i risultati ottenuti con il dato di input.
Al termine di tale procedura, si è scelto quell’operatore in grado di eliminare la maggior parte delle riflessioni multiple senza intaccare le primarie. Inoltre, avendo smagrito l’ondina si è ottenuto un aumento in ampiezza lungo tutto l’asse delle frequenze che ha portato ad un aumento di risoluzione nel dato sismico.
Dopo la deconvoluzione è stato creato lo stack finale e questo corrisponde all’ultimo step di processing elaborato in tesi. La migrazione infatti è stata effettuata in tempi successivi internamente dall’azienda.
Lo scopo finale della tesi è valutare come varia la sezione stack attraverso i camini di gas presenti nell’area di acquisizione, confrontando il dato ottenuto dal processing delle onde Shear (attuale tesi di laurea) e il dato ottenuto dal processing delle onde compressionali, fornito dall’azienda.
Sebbene le onde P rimangano le preferite in fase di acquisizione, in quanto consentono di ottenere un’interpretazione più dettagliata della geologia sotto-superficiale tuttavia, le onde S possono essere utilizzate come complementari. Esse sono in grado di fornire maggiori informazioni in presenza di gas diffuso (grazie alla loro indipendenza dal coefficiente di incompressibilità) ed inoltre, consentono di ottenere una stima più accurata della geologia superficiale.
La loro elaborazione deve essere condotta con attenzione e costante controllo delle ipotesi fatte a priori.
File
Nome file | Dimensione |
---|---|
Tesi non consultabile. |