Tesi etd-03212025-101803 |
Link copiato negli appunti
Tipo di tesi
Tesi di laurea magistrale
Autore
PENTASSUGLIA, MARINA
URN
etd-03212025-101803
Titolo
APPLICAZIONI MILITARI DELL’INTELLIGENZA ARTIFICIALE (AI): IMPLICAZIONI ETICHE E GIURIDICHE PER IL DIRITTO INTERNAZIONALE DEI CONFLITTI ARMATI
Dipartimento
SCIENZE POLITICHE
Corso di studi
SCIENZE MARITTIME E NAVALI
Relatori
relatore Prof.ssa Eboli, Valeria
Parole chiave
- dilemmi etici
- dilemmi giuridici
- diritto internazionale umanitario
- Intelligenza Artificiale
- sistemi d'arma autonomi
Data inizio appello
15/04/2025
Consultabilità
Non consultabile
Data di rilascio
15/04/2095
Riassunto
Una delle principali caratteristiche distintive del ventunesimo secolo è l’innovazione e la potenza sempre crescente della tecnologia: attualmente i computer influenzano la maggior parte degli aspetti della nostra vita, diventando parte integrante, non solo del nostro mondo, ma anche dell’identità stessa dell’essere umano. Sebbene offrano notevoli vantaggi, vi sono anche seri rischi; la principale sfida del nostro Tempo è individuare il modo migliore di reagire a questo sviluppo tecnologico, assicurando che questi dispositivi piuttosto potenzino le nostre capacità che compromettere le condizioni dell’umanità .
Il concetto di “uso della forza” nel diritto internazionale si è evoluto nel corso dei secoli, grazie allo sviluppo di norme giuridiche ed etiche, trattati, convenzioni e prassi degli Stati, per stabilire la liceità o l’illiceità dell’uso della forza nei rapporti internazionali, e per attribuire responsabilità per le violazioni di tali norme. Il principale problema dell’aumento delle capacità dei computer è che, a breve, la decisione sull’uso della forza durante un conflitto armato, potrebbe essere presa direttamente da delle macchine o dei robot.
I mezzi senza pilota (UAV) e i sistemi d’arma autonomi sono apparsi inizialmente come dispositivi telecomandati e/o droni armati, che consentivano agli uomini di non essere presenti nel teatro operativo in cui venivano impiegati. Tuttavia, la decisione finale sull’uso della forza, sebbene da remoto, era ancora presa dall’uomo.
I più recenti dispositivi autonomi sono dotati di sensori che forniscono la situational awareness , di computers che elaborano una moltitudine di informazioni, e di sistemi di armi che eseguono la decisione presa dalla macchina, come ad esempio avviene nei moderni sistemi di puntamento, dove il grado di automazione avanzato consente al computer di decidere quando aprire il fuoco su di un bersaglio, selezionato precedentemente dall’uomo in base al livello di minaccia.
Per individuare il quadro giuridico di riferimento che regola l’uso legittimo della forza fra Stati, bisogna fare una distinzione tra ius ad bellum e ius in bello. Lo ius ad bellum disciplina le condizioni in base alle quali uno Stato può legittimamente ricorrere all’uso della forza contro un altro Stato; in base al diritto internazionale, l’uso della forza è sempre vietato a meno di limitate eccezioni come, ad esempio, per contrastare un’aggressione esterna e proteggere la propria integrità territoriale e indipendenza politica, ovvero esercitare il diritto di autotutela (legittima difesa) individuale o collettiva .
A conflitto iniziato, si applica lo ius in bello, ovvero il “diritto internazionale umanitario” (DIU) che, al fine di ridurre le sofferenze delle parti coinvolte e, in particolare, dei civili e dei combattenti che non possono più partecipare alle ostilità a causa di ferite, malattia, cattura o qualsiasi altra condizione che li renda incapaci di combattere, disciplina la condotta delle ostilità e limita l’uso della forza. In particolare, rientra in questo quadro normativo, il Primo Protocollo aggiuntivo alle Convenzioni di Ginevra del 1949 , il quale stabilisce norme volte a proteggere le vittime dei conflitti armati ed a regolamentare i mezzi e i metodi di combattimento.
Ai sensi dell’articolo 36 del Primo Protocollo Aggiuntivo alla Convenzione di Ginevra del 1977 , la decisione di sviluppare e impiegare nuovi sistemi d’arma, deve essere sempre conforme a tutti gli obblighi giuridici dello Stato nei confronti della comunità internazionale. In particolare, ogni nazione ha l’obbligo di valutare se l’uso di tali nuovi sistemi sia vietato, in tutto o in parte, dal diritto internazionale umanitario o da qualsiasi altra norma applicabile. Il quadro giuridico internazionale non esclude specificamente l’automazione o l’autonomia nelle piattaforme militari, il che significa che la determinazione dei limiti del loro utilizzo è soggetta a interpretazioni.
Questo elaborato si propone di esaminare le possibili azioni che la comunità internazionale dovrebbe attuare in seguito all’avanzamento dei sistemi d’arma autonomi (AWS – Autonomous Weapon System), in particolare all’applicabilità del diritto internazionale vigente (lex lata) a queste tecnologie emergenti.
Vista l’incertezza che circonda le specifiche configurazioni dei futuri AWS, si adotterà un approccio teorico, incentrato sul potenziale sviluppo delle diverse tipologie di sistemi d’arma.
Il concetto di “uso della forza” nel diritto internazionale si è evoluto nel corso dei secoli, grazie allo sviluppo di norme giuridiche ed etiche, trattati, convenzioni e prassi degli Stati, per stabilire la liceità o l’illiceità dell’uso della forza nei rapporti internazionali, e per attribuire responsabilità per le violazioni di tali norme. Il principale problema dell’aumento delle capacità dei computer è che, a breve, la decisione sull’uso della forza durante un conflitto armato, potrebbe essere presa direttamente da delle macchine o dei robot.
I mezzi senza pilota (UAV) e i sistemi d’arma autonomi sono apparsi inizialmente come dispositivi telecomandati e/o droni armati, che consentivano agli uomini di non essere presenti nel teatro operativo in cui venivano impiegati. Tuttavia, la decisione finale sull’uso della forza, sebbene da remoto, era ancora presa dall’uomo.
I più recenti dispositivi autonomi sono dotati di sensori che forniscono la situational awareness , di computers che elaborano una moltitudine di informazioni, e di sistemi di armi che eseguono la decisione presa dalla macchina, come ad esempio avviene nei moderni sistemi di puntamento, dove il grado di automazione avanzato consente al computer di decidere quando aprire il fuoco su di un bersaglio, selezionato precedentemente dall’uomo in base al livello di minaccia.
Per individuare il quadro giuridico di riferimento che regola l’uso legittimo della forza fra Stati, bisogna fare una distinzione tra ius ad bellum e ius in bello. Lo ius ad bellum disciplina le condizioni in base alle quali uno Stato può legittimamente ricorrere all’uso della forza contro un altro Stato; in base al diritto internazionale, l’uso della forza è sempre vietato a meno di limitate eccezioni come, ad esempio, per contrastare un’aggressione esterna e proteggere la propria integrità territoriale e indipendenza politica, ovvero esercitare il diritto di autotutela (legittima difesa) individuale o collettiva .
A conflitto iniziato, si applica lo ius in bello, ovvero il “diritto internazionale umanitario” (DIU) che, al fine di ridurre le sofferenze delle parti coinvolte e, in particolare, dei civili e dei combattenti che non possono più partecipare alle ostilità a causa di ferite, malattia, cattura o qualsiasi altra condizione che li renda incapaci di combattere, disciplina la condotta delle ostilità e limita l’uso della forza. In particolare, rientra in questo quadro normativo, il Primo Protocollo aggiuntivo alle Convenzioni di Ginevra del 1949 , il quale stabilisce norme volte a proteggere le vittime dei conflitti armati ed a regolamentare i mezzi e i metodi di combattimento.
Ai sensi dell’articolo 36 del Primo Protocollo Aggiuntivo alla Convenzione di Ginevra del 1977 , la decisione di sviluppare e impiegare nuovi sistemi d’arma, deve essere sempre conforme a tutti gli obblighi giuridici dello Stato nei confronti della comunità internazionale. In particolare, ogni nazione ha l’obbligo di valutare se l’uso di tali nuovi sistemi sia vietato, in tutto o in parte, dal diritto internazionale umanitario o da qualsiasi altra norma applicabile. Il quadro giuridico internazionale non esclude specificamente l’automazione o l’autonomia nelle piattaforme militari, il che significa che la determinazione dei limiti del loro utilizzo è soggetta a interpretazioni.
Questo elaborato si propone di esaminare le possibili azioni che la comunità internazionale dovrebbe attuare in seguito all’avanzamento dei sistemi d’arma autonomi (AWS – Autonomous Weapon System), in particolare all’applicabilità del diritto internazionale vigente (lex lata) a queste tecnologie emergenti.
Vista l’incertezza che circonda le specifiche configurazioni dei futuri AWS, si adotterà un approccio teorico, incentrato sul potenziale sviluppo delle diverse tipologie di sistemi d’arma.
File
Nome file | Dimensione |
---|---|
Tesi non consultabile. |