logo SBA

ETD

Archivio digitale delle tesi discusse presso l’Università di Pisa

Tesi etd-06142019-093118


Tipo di tesi
Tesi di laurea magistrale
Autore
CARRAVETTA, ALESSANDRA
URN
etd-06142019-093118
Titolo
La società delle macchine: persone, dati, algoritmi
Dipartimento
SCIENZE POLITICHE
Corso di studi
COMUNICAZIONE D'IMPRESA E POLITICA DELLE RISORSE UMANE
Relatori
relatore Prof.ssa Pievatolo, Maria Chiara
Parole chiave
  • big data
  • algoritmi
  • identità
  • linguaggio
Data inizio appello
01/07/2019
Consultabilità
Non consultabile
Data di rilascio
01/07/2089
Riassunto
Ogni rivoluzione tecnologica introduce nuove opportunità e, a un tempo, ne rende impraticabili altre. Una nuova rotatoria, per esempio, è certo d’aiuto per gli automobilisti, ma non per chi preferisce spostarsi a piedi. Questo vale anche per la rivoluzione digitale, come era già chiaro a Joseph Wei-zenbaum, informatico e fondatore della computer ethics, il quale invitava a interrogarsi anche su quanto essa avrebbe reso difficile o impossibile la vita dell'uomo.

Come possiamo affidare buona parte delle nostre decisioni a programmi che eseguono algoritmi a cui i più non hanno né accesso né controllo? Una simile scelte si fonda su una visione meccanicistica dell’uomo, la quale, a sua volta, permette di antropomorfizzare della macchina, affidandole la risoluzione dei nostri problemi come se l’intelligenza computazionale possa realmente essere definita un intelligenza al pari di quella umana.

La macchina, però, non prova emozioni, non sa ciò che fa ed è incapace di mettersi in discussione e di dialogare. Secondo Weizenbaum non si dovrebbe mai permettere ai computer di fare scelte umanamente importanti. Decidere, infatti, è un attività computazionale, mentre per scegliere ab-biamo bisogno non solo del calcolo, ma anche del giudizio, che permette di apprezzare le variabili interpersonali e contestuali irriducibili ad algoritmo.

Ignorare questa differenza conduce alla costruzione di quelle che Cathy O’Neil ha chiamato armi di distruzione matematica (weapons ot math destruction). Si tratta di sistemi di misurazione e valutazione basati sull’individuazione statistica di correlazioni che non ci si preoccupa di spiegare, applicati a un gran numero di casi, opachi perché basati su formule segrete e comunque non note a quanti ne sono governati, e dannosi in quanto basati sulla convinzione che il futuro ripeta il passato – così che chi è povero, disoccupato o socialmente discriminato e svantaggiato si troverà ad essere sistematicamente oggetto di decisioni che rafforzeranno la sua condizione, anziché aiutarlo a superarla.

Gli algoritmi possono certo codificare il passato ma non potranno inventare il futuro, né immaginare un futuro migliore. Affidarsi ciecamente a essi, invece di farne un uso delimitato, trasparente , responsabile e soggetto a discussione, significa dunque mettere a repentaglio – tanto a chi li usa quanto a chi ne è usato – la complessità e la libertà delle scelte, delle relazioni e delle individualità umane. Significa, in altre parole, mettere a repentaglio la possibilità di costruire socialmente e culturalmente un mondo in cui le persone possano essere qualcosa di più che dati e ingranaggi di macchine il cui funzionamento e il cui senso rimane loro oscuro.
File