logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-06262024-125257


Tipo di tesi
Tesi di laurea magistrale
Autore
GRAZIANI, ALICE
URN
etd-06262024-125257
Titolo
Evaluating Large Language Models as Smart Assistants: A Case Study on Product Recommendations and Financing Solutions
Dipartimento
INFORMATICA
Corso di studi
DATA SCIENCE AND BUSINESS INFORMATICS
Relatori
relatore Frangioni, Antonio
Parole chiave
  • Angular
  • architettura a microservizi
  • BERTScore
  • BLEU
  • customer satisfaction
  • Elaborazione del Linguaggio Naturale
  • financing solution
  • Hugging Face
  • Large Language Models
  • LLM
  • microservices achitecture
  • Natural Language Processing
  • NestJs
  • NLP
  • product recommendations
  • raccomandazione prodotti
  • ROUGE
  • soddisfazione del cliente
  • soluzioni di finanziamento
Data inizio appello
12/07/2024
Consultabilità
Non consultabile
Data di rilascio
12/07/2094
Riassunto
ITA:
L'obiettivo principale di questa tesi è valutare e confrontare le prestazioni di Llama, Mixtral e Falcon, tre Modelli di Linguaggio di Grandi Dimensioni (LLMs) disponibili sulla piattaforma Hugging Face. Lo studio mira a valutare la loro capacità di fornire raccomandazioni personalizzate su prodotti e fornire soluzioni di finanziamento, migliorando così la soddisfazione complessiva del cliente.
Per raggiungere questi obiettivi, è stata adottata una complessa metodologia; Inizialmente, è stata condotta una valutazione dettagliata dei modelli, analizzando le loro strutture architettoniche, i punti di forza e debolezza. Successivamente, sono stati sviluppati agenti intelligenti personalizzati per ciascun LLM utilizzando un'architettura a microservizi. Il front end è stato implementato con Angular, mentre il back end con NestJS.
I modelli sono stati testati attraverso numerose domande, divise in quattro aree distinte: estrazione di informazioni specifiche, raccomandazioni basate sul budget, analisi comparativa e consigli e raccomandazioni; quest'ultima sezione contiene domande più generali per valutare il comportamento del modello in risposta a domande aperte. I risultati sono stati confrontati utilizzando metriche come BLEU, ROUGE e BERTScore, tutte affiancate da un'analisi qualitativa. I test hanno confermato l'idoneità dei modelli per compiti come il dialogo e l'assistenza, sottolineando il potenziale degli LLMs di rivoluzionare il servizio clienti. Ogni modello ha mostrato punti di forza unici adatti a vari scenari di servizio, rendendo la scelta del miglior LLM dipendente dalle esigenze proprie organizzative e dalle preferenze dei clienti.


ENG:
The main objective of this research is to evaluate and compare the performance of Llama, Mixtral and Falcon, three Large Language Models (LLMs) available on Hugging Face platform.
The study aims to assess their ability to provide customized product recommendations and tailored financing solutions, thus improving overall customer satisfaction.
A comprehensive methodology has been adopted to achieve these objectives.
Initially, a detailed evaluation of the models was conducted, analysing their architectural structures, strengths and limitations. Subsequently, customized smart agents were developed for each LLM using a microservices architecture. The front end was implemented with Angular, while the back end with NestJS.
The models were tested through numerous questions, divided into four distinct focuses: extraction of specific information, budget-based recommendations, comparative analysis and advice and recommendations, with more general questions to assess model behavior in response to open questions. The results were compared using various metrics such as BLEU, ROUGE and BERTScore, all complemented by a qualitative analysis. Tests confirmed the models' suitability for concrete tasks, underscoring the potential of LLMs to revolutionize customer service. Each model displayed unique strengths suited to various service scenarios, making the best LLM choice dependent on organizational needs and customer preferences.
File