Santa Sede: si crei un organismo per l’uso pacifico dell’intelligenza artificiale
Alessandro De Carolis – Città del Vaticano
Robot-soldato addestrati a individuare bersagli da abbattere e a fare fuoco senza nessun essere umano a gestire l’azione. La fantascienza più inquietante è una realtà in rapido sviluppo in campo militare, ben oltre i droni a guida umana. L’acronimo inglese che identifica questi dispositivi, LAWS (Lethal Autonomous Weapon Systems), ovvero “leggi” suona quasi paradossale. Perché è proprio l’assenza di una normativa chiara che ha indotto la Santa Sede a prendere oggi posizione sul tema e a proporre di invertire la rotta verso un uso dell’intelligenza artificiale condiviso fra gli Stati ma per scopi del tutto pacifici anziché militari.
Disarmo generale
A dare voce alle preoccupazioni e alle idee della Santa Sede è stato monsignor John D. Putzer, incaricato d'affari ad interim presso la Missione di Osservatore permanente della Santa Sede all’Onu di Ginevra e capo delegazione alla sesta Conferenza di revisione della “Convenzione sulla proibizione o la limitazione dell'uso di alcune armi convenzionali che possono essere considerate dannose o aventi effetti indiscriminati”. Proprio la discussione sulle LAWS è stata ritenuta inadeguata dal rappresentante vaticano, che ha richiamato le parti al tavolo sia alla volontà già dichiarata da tutti di fare ogni sforzo “verso il disarmo generale e completo sotto un rigoroso ed efficace controllo internazionale”, sia alla necessità di “continuare la codificazione e lo sviluppo progressivo delle regole del diritto internazionale applicabili nei conflitti armati”.
LAWS e controllo umano
Per la loro fisionomia i robot-soldato pongono, ha affermato monsignor Putzer “preoccupazioni etiche e legali”. Dunque, dal punto di vista della Santa Sede, ha detto, “è imperativo assicurare una supervisione umana adeguata, significativa e coerente sui sistemi d'arma”, perché “solo gli esseri umani sono in grado di vedere i risultati delle loro azioni e di comprendere le connessioni tra causa ed effetto”, mentre le LAWS, ha sottolineato, “non potrebbero mai capire il significato delle loro azioni”. In particolare, il delegato vaticano ha chiesto che siano introdotte “sufficienti condizioni” per “preservare i suddetti principi etici e per garantire il rispetto del diritto internazionale umanitario”. Secondo, che sia sempre la persona umana a “guidare la ricerca, lo sviluppo e l'uso dei sistemi d'arma, anche in assenza di norme giuridiche specifiche, come implica la "clausola Martens" (la norma secondo la quale le persone civili e i combattenti in un conflitto sono protetti dai diritti in uso al momento e nel luogo in questione e dai principi umanitari dettati dalla coscienza pubblica). Terzo, che un sistema d’arma non sia in grado di “contraddire ciò che l'autorità umana ha prescritto come scopo principale o risultato del suo intervento” e che dunque i suoi “comportamenti” siano sempre sotto il controllo umano.
Tecnologia per il bene di tutti
E qui monsignor Putzer ha auspicato che, oltre a stabilire nel frattempo “una moratoria” sullo sviluppo e uso delle LAWS, le nazioni prendano in considerazione “la creazione di un'organizzazione internazionale per l'intelligenza artificiale, per facilitare, e garantire il diritto di tutti gli Stati a partecipare allo scambio più completo possibile di informazioni scientifiche e informazioni scientifiche e tecnologiche per usi pacifici e per il bene comune di tutta la famiglia umana”. Una scelta forte ancor più, ha asserito, “nel mezzo della pandemia globale” che chiede di “mettere le tecnologie emergenti” al servizio dello “sviluppo umano integrale” e delle sue esigenze attuali.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui