logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-03162025-122330


Tipo di tesi
Tesi di laurea magistrale
Autore
D'ANGELO, CATERINA
URN
etd-03162025-122330
Titolo
Uno studio computazionale sull'intertestualità nella letteratura greca antica
Dipartimento
FILOLOGIA, LETTERATURA E LINGUISTICA
Corso di studi
INFORMATICA UMANISTICA
Relatori
relatore Prof. Lenci, Alessandro
Parole chiave
  • apprendimento contrastivo
  • elaborazione del linguaggio naturale
  • greco antico
  • informatica umanistica
  • intertestualità
  • letteratura greca
  • llm
  • modelli di apprendimento automatico
  • reti neurali
  • topic modeling
Data inizio appello
04/04/2025
Consultabilità
Non consultabile
Data di rilascio
04/04/2065
Riassunto
La presente tesi affronta il tema dell'intertestualità da un punto di vista computazionale: l'obbiettivo finale è la creazione di un modello in grado di identificare il riuso testuale e l'allusione nei testi in greco antico. A questo scopo è stato creato un metodo per estrarre automaticamente parafrasi e "confounders" per una data frase. Inoltre, è stato creato un modello per la re-inflessione automatica di sostantivi, aggettivi e verbi. L'obbiettivo finale è il finetuning di un modello BERT pre-addestrato sul greco antico (Logion 50k) con contrastive learning, in modo da migliorarne le capacità di individuazione di frasi semanticamente simili tra loro. Il modello ottenuto è stato testato su un corpus di storiografi greci (Tucidide ed Erodoto) per ricercare in essi allusioni ai testi omerici e, in particolare, alle formule utilizzate per la preparazione della nave nell'Odissea.

This thesis addresses the topic of intertextuality from a computational point of view: the ultimate goal is the creation of a model capable of identifying textual reuse and allusion in ancient Greek texts. To this end, a method was created to automatically extract paraphrases and ‘confounders’ for a given sentence. In addition, a model was created for the automatic re-inflection of nouns, adjectives and verbs. The final goal is the finetuning of a ancient Greek pre-trained BERT model (Logion 50k) with contrastive learning in order to improve its ability to detect semantically similar sentences. The obtained model was tested on a corpus of Greek historiographers (Thucydides and Herodotus) to search for allusions to Homeric texts and, in particular, to the formulas used for the preparation of the ship in the Odyssey.
File