Bylo by důležité, aby zasedání G7 zahájilo diskusi nad mezinárodní úmluvou, která by  stanovila limity pro použití umělé inteligence ve vojenské oblasti. Bylo by důležité, aby zasedání G7 zahájilo diskusi nad mezinárodní úmluvou, která by stanovila limity pro použití umělé inteligence ve vojenské oblasti.  (REUTERS)

K papežově účasti na G7: Umělá inteligence jako smrtonosná inovace

Papež František se v pátek 14. června v rámci zasedání skupiny G7 zúčastní jednání o umělé inteligenci. List L’Osservatore Romano se proto zamýšlí nad dramatickým uplatňováním nebezpečných programů ve válkách, které si vyžadují oběti zejména mezi civilisty.

Roberto Cetera

Záměr papeže Františka zúčastnit se zasedání G7 věnovaného umělé inteligenci vzbudil zvědavost. Papeži zjevně není neznámé nebezpečí některých aplikací umělé inteligence, které často zůstávají v pozadí.

Nejde totiž jen o problém s vnitřními vlastnostmi umělé inteligence a o otázky, které její budoucí vývoj otevírá pro formy komunikace a vztahů. Existuje také problém oblastí jejího uplatnění, které, stejně jako v případě mnoha jiných vědeckých a technologických inovací, jež jí předcházely, zřejmě dávají přednost vojenské oblasti.

To, co se stalo v průběhu krvavé války, která v současnosti probíhá v Gaze, tak představuje dramatickou výstrahu. Podle dvou autoritativních médií, jako je britský deník "The Guardian" a on-line noviny "+972 magazine" a "Local call magazine", vydávané v Tel Avivu, jsou izraelští vojáci bojující v Gaze po 7. říjnu údajně řízeni, ne-li "ovládáni", dvěma programy umělé inteligence, kterým je mimo jiné přičítán vysoký počet civilních obětí izraelského bombardování Pásma.

Podle zmíněných tří médií, která získala informace přímo od izraelských zpravodajských důstojníků, měly IDF (izraelské obranné síly) zejména v prvních měsících konfliktu k dispozici software umělé inteligence nazvaný Lavender, obsahující databázi asi 37 000 potenciálních cílů, identifikovaných na základě předpokládaného spojení s teroristy z Hamásu. Jinými slovy, velitelské struktury izraelských jednotek měly při určování cílů, které měly být zasaženy, upřednostnit chladné indicie umělé inteligence před pozorováním a hodnocením vojáků v terénu. Během pouhých 20 sekund byl program schopen rozpoznat cíl již zadaný v databázi, identifikovat jej i prostřednictvím rozpoznání obličeje a nařídit jeho provedení poskytnutím souřadnic. Na tom, že se ve stejné budově nacházeli další nevinní civilisté, příliš nezáleží. Podle izraelských zdrojů, které shromáždily dva izraelské časopisy a které zprostředkovaly londýnské noviny, byl vysoký počet obětí, tj. civilistů, kteří se stali obětí bombardování, způsoben právě plošným použitím umělé inteligence.

Lidský zásah se měl omezit na pouhou validaci na konci celého postupu. Zdá se dokonce, že program byl naopak schopen předem vypočítat i odhad počtu civilistů, kteří budou zasaženi při každé jednotlivé operaci, a že v prvních týdnech konfliktu se dříve uvedená hranice a schválené oběti pohybovaly v řádu 15 až 20 civilních obětí na každý zásah teroristy. Pružné číslo v závislosti na kontextu: v některých případech šlo až o 5, ale v případě vrcholných členů vojenského křídla Hamásu nebo Islámského džihádu mohlo dosáhnout i 100 obětí. Izraelské vojenské vedení odhalení deníku The Guardian o využívání umělé inteligence v konfliktu nepopřelo, prohlásilo však, že nikdy nejednalo mimo rámec mezinárodních pravidel přiměřenosti vedlejších škod a že Lavender je v podstatě databáze, která prochází napříč různými zpravodajskými zdroji, aby měla aktuální informace o agentech teroristických skupin, a nikoli seznam těch, kteří mají být fyzicky zlikvidováni. Program Lavender - opět podle anonymních svědectví izraelských zpravodajských důstojníků - prý fungoval souběžně s jiným systémem umělé inteligence s nešťastným názvem Evangelium. Zatímco první z nich je založen na databázi lidských cílů, druhý se věnuje cílům sestávajícím z budov a staveb. Je zřejmé, že struktura databáze Lavender závisí na lidském vstupu, pokud jde o pojem "terorista", tj. parametry, které jej definují. Čím širší nebo podrobnější je definice poskytnutá strojům, tím širší nebo užší je seznam cílů poskytovaný programem Lavender. Panují obavy, že po krveprolití spáchaném Hamásem 7. října, kdy převládl duch pomsty, byly požadavky na zařazení na seznamy "rozšířeny". V důsledku toho zvýšený počet cílů mohl vyžadovat urychlení postupů, které mohlo umožnit pouze nasazení umělé inteligence.

Také v dalším velkém válečném konfliktu těchto těžkých časů se na bojišti poprvé objevila umělá inteligence. Ukrajinské ozbrojené síly začaly používat bezpilotní letouny řízené umělou inteligencí. Obecně platí, že dron má pilota, který jej na dálku navádí na cíl, v případě potřeby upravuje kurz a zvažuje možná rizika vedlejších účinků. Na bohatý a perspektivní trh vojenské robotiky nyní vstupuje nová generace dronů, u nichž již není pilot, ale pouze operátor, který na geolokátoru ukáže na cíl a stiskne tlačítko. Nejméně deset ukrajinských a několik západních společností využívá rusko-ukrajinskou válku jako testovací prostor pro své smrtící vynálezy. Umělá inteligence těchto dronů plánuje trasu i s ohledem na morfologické vlastnosti terénu, koordinuje let celého roje, a po splnění mise vydává potvrzení o škodách způsobených nepříteli. Jediný operátor může především sledovat let několika dronů, což šetří čas a lidské zdroje. Pro Ukrajince se tak využití umělé inteligence stává rozhodujícím nástrojem k vyrovnání početní nerovnováhy sil v poli. Rusové zase vyvinuli rozsáhlou linii rádiového rušení podél celé frontové linie, která slouží k izolaci dronů od jejich vzdálených pilotů. Rusové k útokům využívají také umělou inteligenci, která však působí především v oblasti kybernetických průniků, aby automaticky reagovala na nepřátelské vpády a dokonce identifikovala potenciální zranitelná místa v síti. Západní pozorovatelé se domnívají, že ruský vývoj v oblasti vojenského využití umělé inteligence a realizace programů Emerging and disruptive technology (Edt) mohl být zpomalen uplatněním sankcí, nicméně Putin (který opakovaně zdůrazňoval strategickou povahu vojenské umělé inteligence tím, že ji z hlediska účinnosti přirovnával k tomu, co v minulosti představovala jaderná síla) mohl vždy vsadit na pokročilejší úroveň, které v této oblasti dosáhli Číňané.

Ukrajinské ministerstvo obrany vytvořilo specializovanou jednotku s názvem Bravel, která podporuje a usnadňuje práci desítkám začínajících firem, jež vznikly za účelem implementace umělé inteligence ve vojenské oblasti. Desítky západních vojenských sil pozorně sledují (jak odhaluje autoritativní internetový magazín Politico.eu v dlouhém a podrobném zkoumání tohoto fenoménu) vývoj automatických zbraňových systémů, které se testují na Ukrajině. Také v tomto případě, stejně jako v Gaze, je podle analytiků největším rizikem, že upřednostňování rychlosti provedení útoku skončí snížením schopnosti kontroly těchto autonomních zbraní, což otevře možnost masového vraždění. Na rozdíl od klišé, které rusko-ukrajinský konflikt vnímá jako návrat k tradičnímu vedení války, je tedy východ Ukrajiny dnes ve skutečnosti laboratoří pro experimentování s tím, jak se budou vést války v blízké budoucnosti. Bylo by důležité, aby zasedání G7 zahájilo diskusi na toto téma a aby se zamyslelo nad mezinárodní úmluvou, která by - podobně jako tomu bylo v minulosti v případě jaderných arzenálů - stanovila limity pro použití umělé inteligence ve vojenské oblasti. I když se dnes zdá obtížné regulovat fenomén, který je stále v raném stádiu vývoje, zatímco probíhají závody o to, kdo dřív vyrobí nejsmrtonosnější zbraně.

Bylo by důležité, aby zasedání G7 zahájilo diskusi nad mezinárodní úmluvou, která by  stanovila limity pro použití umělé inteligence ve vojenské oblasti.

13. června 2024, 16:42