ETD

Archivio digitale delle tesi discusse presso l'Università di Pisa

Tesi etd-05292009-151839


Tipo di tesi
Tesi di laurea specialistica
Autore
LORENZINI, MATTEO
URN
etd-05292009-151839
Titolo
Dati e conoscenza archeologica: il CityGML per il 3D del foro di Uchi Maius in Tunisia
Dipartimento
LETTERE E FILOSOFIA
Corso di studi
ARCHEOLOGIA
Relatori
Relatore Prof. Milanese, Marco
Relatore Prof. D'Andrea, Andrea
Parole chiave
  • CityGML
  • semantica
  • GIS
  • 3D
  • ontologie
  • Uchi Maius
Data inizio appello
01/07/2009
Consultabilità
Non consultabile
Data di rilascio
01/07/2049
Riassunto
Facendo un passo indietro e rileggendo gli articoli scritti dalla metà degli anni ’80 fino ai primi anni ’90, dove si parlava esclusivamente dell’importanza o meno dell’utilizzo in archeologia del calcolatore per la gestione dei dati , ci rendiamo conto delle innumerevoli sfaccettature che il ruolo dell’ informatica ha assunto nelle diverse fasi della ricerca archeologica.
Ormai, il calcolatore, non è solo considerato come un potente alleato nella gestione “ordinata” delle schede U.S o dei vari archivi che si creano durante le operazioni di scavo; è diventato ormai una vera e propria protesi insostituibile nelle fasi di elaborazione, gestione ed edizione dei dati.
I database vengono fatti ormai abitualmente per gestire ogni tipo di dato partendo dalla scheda US fino ad arrivare al database per la gestione dei reperti provenienti dallo scavo; con i GIS siamo in grado di gestire innumerevoli dataset numerici ed alfanumerici per l’analisi territoriale, sia questi a livello statistico per la distribuzione, ad esempio, dei materiali rinvenuti durante le fasi di ricognizione sia puramente a livello di analisi territoriale e geografica con la possibilità di elaborare modelli digitali del terreno (D.T.M) o modelli insediativi per una determinata zona in un determinato periodo.
Tuttavia, occorre tener di conto anche del risvolto della medaglia legato al fenomeno computer science e archeologia e delle problematiche che sono sorte in seguito a questa rivoluzione digitale. In primo luogo, uno dei più grossi problemi da affrontare risiede nel nocciolo del fenomeno stesso: il proliferare di applicazioni spesso non tiene conto della compatibilità tra diversi softwares e molte banche dati sia geografiche che alfanumeriche vengono gestite ed elaborate con programmi che non sono compatibili con altri usati in diversi gruppi di ricerca non permettendo in questo modo lo scambio delle conoscenze acquisite quindi, si è creato, il problema di raggiungere un certo grado di interoperabilità tra diverse piattaforme hardware e software in modo da permettere una fruizione universale dei dati raccolti . Nella maggioranza dei casi ad ogni programma corrisponde una propria estensione: un esempio è rappresentato dal .dwg per Autocad, lo sono gli .mdb o .fmp per Microsoft Acces e Claris File Maker o gli .shp per il GIS targati ESRI. Come detto sopra non è detto che tutti gli archeologi usino gli stessi programmi quindi si va creando quella situazione per cui addirittura nella stessa equipe di lavoro non si possono più scambiare i dati per una incompatibilità di software utilizzati.
Un altro problema è legato alla metodologia della gestione dei dati e che rappresenta l’argomento centrale di questa tesi.
Se pensiamo a come vengono sviluppati alcuni database odierni, ci rendiamo conto che raccolgono informazioni a se stanti, dove il livello di interazione utente-sistema è circoscritto al raggio di interrogazione di quello che vi è stato informatizzato; una piccola evoluzione è rappresentata dai sistemi GIS che riescono ad integrare modelli cartografici/territoriali 2D ½ con l’informazione alfanumerica associata ai vari shape che noi andiamo man mano a definire ma, anche in questo caso, il livello di interrogazione del dato informatizzato sarà limitato a ciò che noi informatizziamo nella tabella .dbf associata allo shape.
Per la funzione di base che devono assolvere entrambi i sistemi ho delineato “diciamo” la funzione tipo: utente interroga e sistema risponde. Ciò però ormai non basta più.
Il livello di alfabetizzazione informatica tra gli archeologi sta man mano crescendo avanzando quindi sistemi sempre più complessi, le necessità di interazione con i casi di studio sono maggiori in quanto uno scavo non viene più visto come un entità a parte ed isolata dal mondo che lo circonda ma anzi come una parte integrante quindi, per capire in toto le dinamiche deposizionali e post deposizionali di un sito occorre anche contestualizzarlo storicamente e geograficamente nel territorio che lo caratterizza tenendo conto di tutte le informazioni, anche concettuali, che lo riguardano. Studiando le fasi di uno scavo, dei materiali di reimpiego in paramenti murari o, semplicemente delle fasi di restauro in un edificio, viene fuori la necessità di analizzare gli elementi acquisiti all’interno di un range cronologico più o meno stretto; ecco che ci troviamo anche a gestire un altro fattore: quello temporale (4° dimensione).
Una soluzione ai citati problemi, e che ne propongo un caso con il mio elaborato, è rappresentata dall’utilizzo di formati aperti “Open format” per la gestione dei dati integrati in un modello semantico che permette di gestire, oltre ai semplici dati indicizzati nella banca dati, anche informazioni intellettuali e concettuali grazie ad un modello “ad oggetti” e non più relazionale.
Il problema della rappresentazione della conoscenza rappresenta, al giorno d'oggi, una delle sfide più avvincenti della ricerca scientifica. Una sfida che coinvolge discipline e aree di studio apparentemente distanti fra loro: dalla filosofia alla linguistica, dall'informatica all’archeologia.
Ma ancora più affascinante è stato ed è tutt'oggi il passo successivo: come permettere all'uomo di interagire in modo naturale, senza sforzo e senza limiti, con sistemi di rappresentazione della conoscenza?
E' interessante, in un modus operandi in cui queste interazioni stanno diventando sempre più frequenti, soffermarsi a riflettere sui problemi che emergono quando l'utente umano, con il suo linguaggio e la sua “visione del mondo”, si trova a dover comunicare con un sistema di dati strutturato. Come arrivare ad una lingua comune, come raggiungere quel linguaggio intermedio che consenta una comunicazione libera, che non sia costretta a ''pagare il costo di un interprete''? E' proprio la stretta relazione tra pensiero e linguaggio che ha posto il “natural language processing” al centro del dibattito dell'intelligenza artificiale, e lo ha reso un elemento centrale per lo sviluppo delle nuove tecnologie.
Questo campo nasce sulla sottile linea di confine fra le scienze cognitive e l'intelligenza artificiale, sebbene i cognitivisti abbiano sempre concentrato l'attenzione su “come la mente umana memorizza l'informazione”, mentre i computazionalisti su come gestire automaticamente l'informazione. Nell'ambito dell'intelligenza artificiale si è ben presto riconosciuto che, perché una macchina possa esibire un comportamento intelligente, che le permetta di interagire con l'uomo, ha bisogno di gestire grandi quantità di informazioni. Quindi uno dei problemi fondamentali che è necessario affrontare è riuscire a rappresentare la conoscenza in modo che sia manipolabile automaticamente nel modo più agevole possibile e che possa essere usata per ragionare ed effettuare deduzioni efficientemente. Dal momento della nascita di questa consapevolezza, quindi, vari sono stati i formalismi studiati per la definizione e la manipolazione di basi di conoscenza, e l'ultimo approdo della ricerca ha riguardato il vasto mondo delle ontologie, rappresentazioni di informazione strutturata a partire da concetti condivisi. Allo stato attuale l'ontologia è considerata da molti come il metodo di rappresentazione della conoscenza più efficace (Borgida 1989), proprio perché presenta informazione formalizzata in un linguaggio logico su cui è possibile inferire informazione implicita.
Ma se da un estremo vi è la conoscenza, e la sua rappresentazione logica in un'ontologia, dall'altra vi è l'uomo e la sua necessità di interagire con essa. Come avviene questa interazione, quale linguaggio comune devono parlare questi due “soggetti” per riuscire a comunicare?
Il mio lavoro andrà ad approfondire il problema della ricerca di quel linguaggio che può essere condiviso dall'uomo e dai sistemi di rappresentazione della conoscenza senza intermediari. Verrà qui proposto l’utilizzo del profilo applicativo CityGML come sintassi idonea alla gestione della conoscenza intellettuale e del dato archeologico dell’area forense del sito di Uchi Maius in Tunisia.
Sarà possibile raggiungere questo compromesso?
E se sì, sarà possibile allora permettere all'utente di interfacciarsi con la macchina usando una sintassi libera, che non sia costretta dai vincoli di un linguaggio controllato? Il fine ultimo che la ricerca può prefiggersi è un'interazione uomo macchina assolutamente naturale, un' interazione in cui l'uomo non debba più compiere alcuno sforzo di semplificazione del proprio linguaggio.
Ma questo è un traguardo da raggiungere gradualmente, in un campo dove ogni piccola conquista rappresenta un passo sulla strada dell'incontro tra l'uomo e la macchina. Un traguardo ambizioso, ma proprio per questo una problematica decisamente affascinante.


File