Påven Franciskus under sitt tal vid G7 Påven Franciskus under sitt tal vid G7   Ledare

Artificiell intelligens och den mänskliga faktorn

År 1983 räddade en man världen från ett kärnvapenkrig som kunde ha utlösts av ett fel i en maskin

Andrea Tornielli - Vatikanstaten

"Autonoma vapensystem kan aldrig vara moraliskt ansvariga subjekt: den unika mänskliga förmågan till moralisk bedömning och etiskt beslutsfattande är mer än en komplex uppsättning algoritmer, och denna förmåga kan inte reduceras till programmeringen av en maskin som hur "intelligent" den än är fortfarande är en maskin. Därför är det absolut nödvändigt att säkerställa en adekvat, meningsfull och sammanhängande mänsklig tillsyn av vapensystem". Detta skrev påven Franciskus i sitt budskap till Världsfredsdagen 2024.

Vi har en episod som utspelade sig för fyrtio år sedan och som borde bli en paradigm när vi talar om artificiell intelligens tillämpad på krig, vapen och dödsredskap. Det är historien om den sovjetiske officer vars beslut, i strid med protokollet, räddade världen från en kärnvapenkonflikt som skulle ha fått katastrofala följder. Mannen hette Stanislav Evgrafovich Petrov. Han var överstelöjtnant i den ryska armén och den 26 september 1983 var han på nattjänst i bunkern "Serpukhov 15" och övervakade USA:s missilaktivitet. Det kalla kriget stod inför en avgörande vändpunkt. USA:s president Ronald Reagan investerade enorma summor i krigsmateriel och hade just kallat Sovjetunionen för "ondskans imperium". Nato deltog i militärövningar där man simulerade kärnvapenkrigsscenarier. I Kreml satt Jurij Andropov, som nyligen hade talat om en "aldrig tidigare skådad upptrappning" av krisen och den 1 september hade Sovjet skjutit ned ett Korean Air Lines-plan över Kamtjatka-halvön och dödat 269 personer.

Den kvällen, den 26 september, såg Petrov att datorsystemet Krokus - den intelligens som ansågs ofelbar när det gällde att övervaka fiendens aktiviteter - hade rapporterat från en bas i Montana att en missil var på väg mot Sovjetunionen. Enligt protokollet skulle officeren omedelbart varna sina överordnade, som skulle ge klartecken för ett svar genom att avfyra missiler mot USA. Men Petrov tog god tid på sig, inte minst för att - vad han hade fått veta - skulle en eventuell attack bli massiv. Han betraktade därför den ensamma missilen som ett falskt alarm. Och han gjorde detsamma med de följande fyra som dök upp på hans bildskärmar strax därefter och undrade varför det inte kom någon bekräftelse från markradarn. Han var väl medveten om att interkontinentala missiler tar mindre än en halvtimme på sig att nå sin destination, men bestämde sig för att inte slå larm och de andra närvarande militärerna var som förstenade.

I själva verket hade den elektroniska hjärnan haft fel. Det hade inte förekommit någon missilattack. Krokus hade vilseletts av ett fenomen med brytande solljus i kontakt med moln på hög höjd. Kort sagt, den mänskliga intelligensen hade sett längre än maskinens. Försynens beslut att inte fatta beslut fattades av en man vars omdöme hade förmått se bortom data och protokoll.

Kärnkraftskatastrofen undveks, även om ingen kände till händelsen förrän i början av 1990-talet. Petrov, som gick bort i september 2017, kommenterade den natten i bunkern "Serpukhov 15" på följande sätt: "Vad gjorde jag? Inget särskilt, bara mitt jobb. Jag var rätt man på rätt plats vid rätt tidpunkt." Han var den person som kunde bedöma eventuella fel hos maskinen som ansågs ofelbar, den person som - för att återgå till påvens ord - kunde "göra moraliska bedömningar och fatta etiska beslut", eftersom en maskin, hur "intelligent" den än är, alltid förblir en maskin.

Krig, upprepar påven, är galenskap, ett nederlag för mänskligheten. Krig är en grov kränkning av människovärdet. Att föra krig genom att gömma sig bakom algoritmer, förlita sig på artificiell intelligens för att fastställa mål och hur man ska träffa dem, och på så sätt rentvå sitt samvete eftersom man i slutändan valde maskinen, är ännu allvarligare. Låt oss inte glömma Stanislav Evgrafovich Petrov.

 

15 juni 2024, 08:23