Vláda navrhla příští rok ztrojnásobit výdaje na vývoj protiraketového systému s umělou inteligencí na 83 miliónů dolarů (1,8 miliardy korun), píše Reuters. I když jde o poměrně malou částku, jde o náznak rostoucího významu, který mají podobné programy v době růstu hrozby ze strany KLDR a vojenské moci Ruska.

„Měli bychom udělat vše, co je v našich silách, abychom našli raketu před tím, než ji odpálí, a výrazně ztížili možnosti jejího odpálení,“ řekl jeden z lidí obeznámených s programem.

„Umělá inteligence nám umožní najít jehlu v kupce sena,” řekl Reuters americký expert Bob Work. Počítač zpracuje rychle velké množství dat a může rychleji vyhledat podezřelé aktivity nasvědčující přípravě startu rakety.

Program by měl zpracovávat ohromné množství dat včetně satelitních záběrů a mnohem rychleji než lidé vyhledat známky, že je balistická raketa připravována ke startu. Agentuře Reuters po potvrdilo šest zdrojů obeznámených s programem, který se v rozpočtu nedá skoro najít. Schovává se za nic neříkajícím neproniknutelným žargonem.

V hledáčku KLDR, Írán, Rusko a Čína

Podle dostupných informací je jedna z částí výzkumného programu zaměřena přímo na KLDR. Z rozpočtové dokumentace podle Reuters vyplývá, že program protiraketové obrany s využitím umělé inteligence má být v budoucnu zaměřen i proti Rusku a Číně, protože je označován jako otázky související s problémem 4 1. Toto spojení se používá pro Čínu, Rusko, Írán, Severní Koreu a teroristy.

Podle jednoho z představitelů obeznámených s programem se jeden z prvních prototypů pátrajících po mobilních odpalovacích zařízeních už v amerických ozbrojených silách testoval. Přišly s ním komerční firmy, které byly placené fondem In-Q-Tel.

Na zvýšení efektivity těchto systémů pracuje ředitel pro Automatizaci a umělou inteligence v Národním geoprostorovém úřadu William „Buzz“ Roberts. Tato organizace použila loni umělou inteligenci pro analyzování 12 miliónů obrázků ze satelitů. Systém už napomáhá zjistit, zda je či není na obrázku něco podezřelého.

Roberts o podobných systémech řekl: „Jestli jsou z půlky dobré, jsou dobré.“

Automaty musejí být pod kontrolou lidí

Podle kritiků mohou podobné systémy vést k předčasným rozhodnutím v dobách jaderných krizí. Mohou rovněž vyvolat incidenty v důsledku chyb počítačového programu a vyprovokovat závody ve zbrojení s Moskvou a Pekingem.

Až bude systém hotov, bude muset Pentagon myslet na jeho zabezpečení, aby rozhodovali o případné eskalaci jaderného konfliktu lidé, a ne stroje, řekl velitel amerických strategických sil Jon Hyten: „Umělá inteligence nás může donutit stoupat po tomto žebříku (eskalace), pokud nepoužijete dobré zabezpečení.“ Varoval, že hrozba eskalace je vysoká: „Jak se do ní jednou pustíte, dá se všechno do pohybu.“

USA soupeří ve využití umělé inteligence ve vojenství s Ruskem a Čínou. „Rusové a Číňané se také snaží o tyto věci,“ řekl poslanec Mac Thornberry, který vede sněmovní výbor pro ozbrojené složky. Jedná se zejména o samoučící autonomní systémy, který jsou schopné plnit zadané úkoly, a to pořád lépe.

Pentagon už nyní umělou inteligenci využívá v projektu Mavem při analýze videozáznamů pořízených armádními drony.

Podle analytické společnosti Rand Corporation je vysoká pravděpodobnost, že by ČínaRusko mohly zkoušet systém oklamat a najít způsob, jak jaderné rakety schovat před detekčními zařízeními.