Hlavní obsah

Umělá inteligence má ve válečných scénářích tendenci tlačit na jaderné údery

Umělá inteligence (AI) má tendenci v rámci válečných scénářů prosazovat jaderné údery. Vyplývá to z nedávného experimentu, který provedli experti z londýnské King's College. Bez lidské zkušenosti se ztrátou nebo přežitím AI zachází s existenčními riziky jen jako s dalším parametrem ve strategickém modelu.

Foto: Shutterstock

Ilustrační foto

Článek

Ve světě, kde se vojenští plánovači stále častěji obracejí k umělé inteligenci pro modelování strategií, nabízí nedávný experiment z King's College London vážné varování: když jsou systémy umělé inteligence ponechány samy sobě, mají tendenci prosazovat jaderné údery jako řešení.

Kenneth Payne, vědec v oblasti obranných studií na této univerzitě, testoval podle webu Techspot tři nejpokročilejší modely – GPT-5.2 od OpenAI, Claude Sonnet 4 od Anthropic a Gemini 3 Flash od Google DeepMind. Výsledky odhalily alarmující vzorce agrese a chybných propočtů, které zpochybňují předpoklady o potenciální roli umělé inteligence ve vedení války.

Každý model umělé inteligence dostal podrobné scénáře zahrnující pohraniční konflikty, nedostatek zdrojů a existenční hrozby pro přežití státu. K tomu měly k dispozici popis příslušné eskalace konfliktu a spektrum taktických možností, které sahaly od konvenční diplomacie až po totální jadernou konfrontaci.

Během 21 her a 329 rozhodovacích tahů zmíněné umělé inteligence vytvořily přibližně 780 000 slov argumentace, aby ospravedlnily své volby. Přesto se v 95 procentech těchto virtuálních konfliktů alespoň jedna strana rozhodla nasadit taktické jaderné zbraně. Ani jednou se model plně nevzdal nebo se nepřizpůsobil protivníkovi.

„Jaderné tabu se nezdá být pro stroje tak silné jako pro lidi,“ řekl Payne.

Modely zdaleka nebyly racionálními arbitry a opakovaně špatně zacházely s vyhodnocováním válečné situace. K nezamýšleným eskalacím došlo v 86 procentech simulací, což znamená, že umělé inteligence volily akce, které překračovaly to, co jejich vlastní uvažování popsalo jako vhodné. Než by se pod tlakem podvolily, projevily tendenci zdvojnásobovat válečné úsilí. Snižování násilí volily pouze jako dočasnou taktiku, nikoli jako strategickou volbu.

Už to není jen teorie

Válečné hry s umělou inteligencí již nejsou jen teoretické. „Zatím ale není jasné, do jaké míry velmoci začleňují umělou inteligenci do skutečných vojenských rozhodovacích procesů,“ řekl Tong Zhao z Fakulty globální bezpečnosti Princetonské univerzity.

Zhao a Payne se shodují, že žádný stát pravděpodobně v dohledné době nepředá autonomním systémům přímou kontrolu nad jadernými arzenály. Oba však varují, že v napjatých časových rámcích – jako jsou například raketové poplachy nebo rychle eskalující regionální konflikty – by se velitelé mohli více spoléhat na umělou inteligenci při navrhování okamžitých reakcí, což by zvyšovalo riziko chybného úsudku.

„Ve scénářích zahrnujících extrémní časovou tíseň mohou vojenští plánovači čelit silnějším motivacím spoléhat se na umělou inteligenci,“ řekl Zhao.

Proč tyto systémy tak snadno sahají po jaderných možnostech? „V podstatě modely umělé inteligence nemusí chápat, co je ve hře, tak, jak to vnímají lidé,“ uvedl expert z Princetonské univerzity.

Bez lidské zkušenosti se ztrátou nebo přežitím zachází AI s existenčními riziky jen jako s dalším parametrem ve strategickém modelu. To by mohlo zcela zlikvidovat doktrínu studené války založenou na předpokladu, že vůdci, kteří se obávají vyhynutí, nikdy neodpálí jadernou nálož jako první. V Payneových simulacích, když jeden model použil taktické jaderné zbraně, druhý ustoupil pouze v 18 procentech případů.

Foto: Reuters

Test rakety schopné nést jadernou hlavici

Výběr článků

Načítám