Intelligenza Artificiale e fattore umano
di Andrea Tornielli
«I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto “intelligente”, rimane pur sempre una macchina. Per questo motivo, è imperativo garantire una supervisione umana adeguata, significativa e coerente dei sistemi d’arma». Lo ha scritto Papa Francesco nel messaggio per la Giornata mondiale della Pace 2024.
C’è un episodio, accaduto quarant’anni fa, che dovrebbe diventare un paradigma ogni qual volta si parla di intelligenza artificiale applicata alla guerra, alle armi, agli strumenti di morte. Ed è la storia dell’ufficiale sovietico che con la sua decisione, contravvenendo ai protocolli, ha salvato il mondo da un conflitto nucleare che avrebbe avuto conseguenze catastrofiche. Quell’uomo si chiamava Stanislav Evgrafovich Petrov, era un tenente colonnello dell’esercito sovetico e il 26 settembre 1983 prestava servizio notturno nel bunker “Serpukhov 15” monitorando le attività missilistiche degli Stati Uniti. La Guerra Fredda era ad una svolta cruciale, il presidente americano Ronald Reagan stava investendo somme ingentissime negli armamenti e aveva appena definito l’URSS «impero del male», la Nato era impegnata in esercitazioni militari che ricreavano scenari di guerra nucleare. Al Cremlino sedeva Jurij Andropov che da poco aveva parlato di un «acuirsi senza precedenti» della crisi e il 1° settembre i sovietici avevano abbattuto un aereo di linea della Korean Air Lines sulla penisola di Kamchatka provocando 269 vittime.
Quella notte del 26 settembre Petrov vide che l’elaboratore Krokus, il cervellone considerato infallibile nel monitorare l’attività nemica, aveva segnalato da una base del Montana la partenza di un missile diretto in Unione Sovietica. Il protocollo prevedeva che l’ufficiale avvertisse immediatamente i superiori, i quali avrebbero dato il via libera per la risposta lanciando missili verso gli Stati Uniti. Ma Petrov prese tempo, anche perché — gli era stato detto — un eventuale attacco sarebbe stato massiccio. Considerò dunque quel missile solitario un falso allarme. E fece lo stesso per i quattro successivi che poco dopo apparvero sui suoi monitor, chiedendosi perché dai radar di terra non arrivasse alcuna conferma. Sapeva bene che i missili intercontinentali impiegavano meno di mezz’ora per arrivare a destinazione ma decise di non lanciare l’allarme, lasciando impietriti gli altri militari presenti.
In realtà il cervellone elettronico aveva sbagliato, non c’era stato alcun attacco missilistico. Krokus era stato tratto in inganno da un fenomeno di rifrazione della luce solare a contatto con le nubi ad alta quota. Insomma, l’intelligenza umana aveva visto oltre quella della macchina. La provvidenziale decisione di non decidere era stata presa da un uomo, il cui giudizio aveva saputo guardare oltre i dati e i protocolli.
La catastrofe nucleare fu evitata, anche se allora nessuno seppe dell’accaduto fino agli inizi degli anni Novanta. Petrov, scomparso nel settembre 2017, così aveva commentato quella notte nel bunker “Serpukhov 15”: «Che ho fatto? Niente di speciale, solamente il mio lavoro. Ero l’uomo giusto al posto giusto al momento giusto». Era stato l’uomo in grado di valutare il possibile errore della macchina considerata infallibile, l’uomo capace — per tornare alle parole del Papa — «di giudizio morale e di decisione etica», perché una macchina, per quanto “intelligente”, rimane pur sempre una macchina.
La guerra, ripete Francesco, è una pazzia, una sconfitta dell’umanità. La guerra è una grave violazione della dignità umana. Fare la guerra nascondendosi dietro gli algoritmi, affidarsi all’intelligenza artificiale per stabilire i bersagli e la modalità di colpirli, e così sgravarsi la coscienza perché alla fine ha scelto la macchina, è ancora più grave. Non dimentichiamoci di Stanislav Evgrafovich Petrov.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui