logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-02112026-102038


Tipo di tesi
Tesi di dottorato di ricerca
Autore
SACCO, FEDERICA
URN
etd-02112026-102038
Titolo
The Reciprocity of Trust: From Psychological Foundations to Social Robots Implementation
Settore scientifico disciplinare
M-PSI/01 - PSICOLOGIA GENERALE
Corso di studi
DOTTORATO NAZIONALE IN INTELLIGENZA ARTIFICIALE
Relatori
tutor Prof.ssa Marchetti, Antonella
Parole chiave
  • artificial intelligence
  • social robots
  • theory of mind
Data inizio appello
20/03/2026
Consultabilità
Non consultabile
Data di rilascio
20/03/2029
Riassunto (Inglese)
This thesis is situated within the multidisciplinary field of social robotics, a domain that intersects psychology, cognitive science, artificial intelligence, and robotics engineering. Its primary aim is to investigate human-robot interaction (HRI) and the perception of Artificial Intelligence (AI) systems through an integrated framework that combines empirical psychological research with computational modeling. As robots and AI technologies increasingly enter work environments, educational settings, and care contexts, fundamental questions arise regarding trust formation, social acceptance, cognitive representation, and ethical integration. Rather than approaching these issues from a purely engineering-driven or philosophical perspective, this research adopts an empirical, data-driven, and interdisciplinary methodology to propose a pragmatic and operational framework for understanding and designing socially aware AI systems.
The thesis is structured around three complementary studies, each addressing human-AI relations at a different level of analysis: psychometric, computational, and applied-educational.
The first study, psychometric and social in nature, focused on validating the General Attitudes Towards Artificial Intelligence Scale (GAAIS) within the Italian cultural context. Given the rapid diffusion of AI technologies and the scarcity of validated instruments in Italy, this study aimed to provide a reliable tool for measuring public attitudes. The scale was administered to a large and heterogeneous sample, and confirmatory factor analysis supported the original two-factor structure, confirming its internal consistency and structural robustness. Further correlational and regression analyses revealed that attitudes toward AI are not homogeneous but vary significantly according to demographic variables—particularly gender and age—as well as psychological dimensions such as epistemic trust. These findings highlight the presence of cognitive and socio-cultural biases that influence AI acceptance and provide a validated instrument for future Italian research on technology perception and digital transformation.
The second study shifted the focus from human perception to artificial cognition, addressing a core challenge in social robotics: the generalization of trust in dynamic and uncertain environments. While humans are capable of forming trust judgments from limited interactions and extending them to new but similar agents, artificial systems often struggle with this generalization process. This study hypothesized that learning trust from sparse interaction data represents a critical bottleneck in adaptive human-robot collaboration. To address this, a novel cognitive architecture was developed, integrating perception, categorization, and trust-learning mechanisms. The system employed computer vision algorithms—specifically Haar Cascade for face detection and YOLOv8 for object recognition—to identify and classify informants into archetypal categories. Experimental simulations were conducted using a virtual robot interacting with archetype-based informants across three phases: familiarization, decision-making, and trust generalization. Results demonstrated that the architecture successfully learned trust patterns and generalized them to novel agents sharing similar features. This provides a computational model for developing more resilient, context-sensitive, and socially adaptive robots capable of functioning in complex, real-world environments.
The third study explored the applied dimension of social robotics, investigating the acceptance of humanoid robots in educational contexts. Through qualitative methodologies—including focus groups and semi-structured interviews—17 teachers were asked to evaluate the potential of the NAO humanoid robot in classroom settings. Thematic analysis revealed predominantly positive perceptions. Teachers viewed the robot not as a replacement for human educators but as a supportive tool capable of enhancing engagement, sustaining attention, assisting students with learning difficulties, and facilitating group management. An especially relevant finding concerned the integration of the robot with a Large Language Model (LLM), such as ChatGPT. Participants perceived this integration as transformative: it reduces programming complexity, enables real-time personalization of activities, and allows dynamic interaction adapted to students’ needs. This suggests that the combination of embodied robotics and advanced language models may represent a promising direction for future educational technologies.
Taken together, the three studies offer a multi-layered contribution to the understanding of human-AI relations. At the societal level, the thesis validates a psychometric instrument to measure attitudes toward AI in Italy. At the computational level, it proposes an innovative architecture addressing trust learning and generalization in artificial systems. At the applied level, it provides empirical insights into the practical and pedagogical implications of social robots in education.
Overall, the findings delineate concrete steps toward the development of safer, more trustworthy, and socially responsible AI systems. By integrating psychological measurement, cognitive modeling, and applied research, this thesis contributes to shaping a more adaptive and ethically informed coexistence between humans and intelligent machines in contemporary society.
Riassunto (Italiano)
Questa tesi si colloca all’interno del campo multidisciplinare della robotica sociale, un ambito che interseca psicologia, scienze cognitive, intelligenza artificiale e ingegneria robotica. Il suo obiettivo principale è indagare l’interazione uomo-robot (Human-Robot Interaction, HRI) e la percezione dei sistemi di Intelligenza Artificiale (IA) attraverso un quadro integrato che combina ricerca psicologica empirica e modellazione computazionale. Con l’ingresso sempre più diffuso di robot e tecnologie di IA negli ambienti di lavoro, nei contesti educativi e nei servizi di cura, emergono questioni fondamentali riguardanti la formazione della fiducia, l’accettazione sociale, la rappresentazione cognitiva e l’integrazione etica. Piuttosto che affrontare questi temi da una prospettiva esclusivamente ingegneristica o filosofica, questa ricerca adotta una metodologia empirica, basata sui dati e interdisciplinare, con l’obiettivo di proporre un quadro pragmatico e operativo per comprendere e progettare sistemi di IA socialmente consapevoli.
La tesi è strutturata attorno a tre studi complementari, ciascuno dei quali affronta la relazione uomo-IA a un diverso livello di analisi: psicometrico, computazionale e applicativo-educativo.
Il primo studio, di natura psicometrica e sociale, si è concentrato sulla validazione della General Attitudes Towards Artificial Intelligence Scale (GAAIS) nel contesto culturale italiano. Considerata la rapida diffusione delle tecnologie di IA e la scarsità di strumenti validati in Italia, questo studio mirava a fornire uno strumento affidabile per misurare gli atteggiamenti della popolazione verso l’IA. La scala è stata somministrata a un ampio campione eterogeneo e l’analisi fattoriale confermativa ha supportato la struttura originale a due fattori, confermandone la coerenza interna e la robustezza strutturale. Ulteriori analisi correlazionali e di regressione hanno rivelato che gli atteggiamenti verso l’IA non sono omogenei, ma variano significativamente in funzione di variabili demografiche — in particolare genere ed età — oltre che di dimensioni psicologiche come la fiducia epistemica. Questi risultati evidenziano la presenza di bias cognitivi e socio-culturali che influenzano l’accettazione dell’IA e forniscono uno strumento validato per future ricerche italiane sulla percezione delle tecnologie e sulla trasformazione digitale.
Il secondo studio ha spostato l’attenzione dalla percezione umana alla cognizione artificiale, affrontando una sfida centrale della robotica sociale: la generalizzazione della fiducia in ambienti dinamici e incerti. Mentre gli esseri umani sono in grado di formulare giudizi di fiducia a partire da interazioni limitate e di estenderli a nuovi agenti simili, i sistemi artificiali spesso incontrano difficoltà in questo processo di generalizzazione. Questo studio ha ipotizzato che l’apprendimento della fiducia a partire da dati di interazione scarsi rappresenti un collo di bottiglia critico nella collaborazione adattiva uomo-robot. Per affrontare questo problema è stata sviluppata una nuova architettura cognitiva che integra meccanismi di percezione, categorizzazione e apprendimento della fiducia. Il sistema utilizza algoritmi di visione artificiale — in particolare Haar Cascade per il rilevamento dei volti e YOLOv8 per il riconoscimento degli oggetti — per identificare e classificare gli informatori in categorie archetipiche. Sono state condotte simulazioni sperimentali con un robot virtuale che interagiva con informatori basati su archetipi attraverso tre fasi: familiarizzazione, presa di decisione e generalizzazione della fiducia. I risultati hanno dimostrato che l’architettura è in grado di apprendere schemi di fiducia e di generalizzarli a nuovi agenti che condividono caratteristiche simili. Ciò fornisce un modello computazionale per lo sviluppo di robot più resilienti, sensibili al contesto e socialmente adattivi, capaci di operare in ambienti complessi del mondo reale.
Il terzo studio ha esplorato la dimensione applicativa della robotica sociale, indagando l’accettazione dei robot umanoidi nei contesti educativi. Attraverso metodologie qualitative — tra cui focus group e interviste semi-strutturate — a 17 insegnanti è stato chiesto di valutare il potenziale del robot umanoide NAO nelle attività in classe. L’analisi tematica ha rivelato percezioni prevalentemente positive. Gli insegnanti non hanno visto il robot come un sostituto dell’educatore umano, ma come uno strumento di supporto capace di aumentare il coinvolgimento degli studenti, mantenere l’attenzione, assistere gli alunni con difficoltà di apprendimento e facilitare la gestione dei gruppi. Un risultato particolarmente rilevante riguarda l’integrazione del robot con un Large Language Model (LLM), come ChatGPT. I partecipanti hanno percepito questa integrazione come trasformativa: riduce la complessità di programmazione, consente la personalizzazione delle attività in tempo reale e permette un’interazione dinamica adattata alle esigenze degli studenti. Ciò suggerisce che la combinazione tra robotica incarnata e modelli linguistici avanzati potrebbe rappresentare una direzione promettente per le future tecnologie educative.
Nel loro insieme, i tre studi offrono un contributo multilivello alla comprensione delle relazioni tra esseri umani e IA. A livello sociale, la tesi valida uno strumento psicometrico per misurare gli atteggiamenti verso l’IA in Italia. A livello computazionale, propone un’architettura innovativa per affrontare l’apprendimento e la generalizzazione della fiducia nei sistemi artificiali. A livello applicativo, fornisce evidenze empiriche sulle implicazioni pratiche e pedagogiche dei robot sociali nell’educazione.
Nel complesso, i risultati delineano passi concreti verso lo sviluppo di sistemi di IA più sicuri, affidabili e socialmente responsabili. Integrando misurazione psicologica, modellazione cognitiva e ricerca applicata, questa tesi contribuisce a delineare una convivenza più adattiva ed eticamente informata tra esseri umani e macchine intelligenti nella società contemporanea.
File