Války budoucnosti budou vést umělé inteligence, předvídá zpráva z Harvardu

02.01.2018 13:49

 

Některé technologie jsou pro armády neodolatelné – a umělá inteligence je jednou z nich, uvádí vědec Greg Allen, který je spoluautorem velké studie na toto téma. Zprávu vypracovala Harvardova univerzita na zakázku americké vládní agentury Intelligence Advanced Research Projects Activity (IARPA).

Americká armáda financuje, testuje a využívá různé formy strojové inteligence už řadu let. Již roku 2001 dokonce vyžadoval Kongres, aby byla třetina vojenských vozidel autonomních do roku 2015 – což se nepodařilo splnit. Podle nové zprávy přesto patří strojům budoucnost i co se týká válčení. Přinese to jedinečnou proměnu toho, jak válčení stovky let funguje. Tento pokrok se podle Allena a jeho kolegů nedá zastavit; i kdyby teď hned vlády zakázaly výzkum umělých inteligencí, armády budou mít stále k dispozici 5–10 let již hotových výzkumů, jež zatím nestačily zpracovat a využít.

Studie uvádí, že rychlé nasazení těchto technologií jen zvýrazní roli USA jako nejsilnější armády světa. Chytřejší, obratnější a rychlejší roboti by mohli podporovat vojáky a zlepšovat akceschopnost armád při pozemních operacích, jakou jsou ty v Iráku nebo Afghánistánu. Hlavní výhodou zatím je, že takové mise si vyžádají méně lidských sil – a řada z nich se možná již brzy obejde zcela bez nasazení lidí.

Zpráva se věnuje také další oblasti nasazení umělých inteligencí, jehož význam v posledních letech výrazně roste – kybernetické válce. Automatizované algoritmy by měly být v budoucnu hlavními silami, jež budou zkoumat obranu nepřítele, předávat mu falešné informace nebo mu budou útočit na jeho klíčové sítě. Už před rokem americká armádní agentura DARPA organizovala soutěž, v níž se sedm umělých inteligencí utkalo ve virtuální kybernetické válce.
Vědci ale také upozorňují na to, jaká rizika umělé inteligence pro Spojené státy představují. S tím, jak rychle roste úroveň takových systémů, se může snadno stát, že dojde k narušení mezinárodní rovnováhy moci. I malé státy totiž budou moci pomocí takových relativně levných kybernetických zbraní úspěšně ohrožovat velmoci. Doposud byl jediným způsobem, jak toho mohly dosáhnout, vývoj jaderných zbraní, ale ten je drahý, je k němu potřeba spousta zdrojů a rozsáhlá infrastruktura. Zato k vývoji kódu není zase zapotřebí tolik – a útok pomocí něj může být podobně ničivý, pokud je mířený například na elektrárenskou strukturu země nebo na její ekonomiku.

Harvardští vědci varují především před tím, že se autonomní drony a vozidla rozšíří mezi veřejnost. Až se to stane (podle předpokladů jiných analytiků by to mělo být do 10–15 let), mohly by se tyto stroje stát účinnými nástroji v asymetrické válce. Místo sebevražedných atentátníků tak mohou vojáci již brzy čelit autonomním vozům s příkazem najíždět do civilistů.

Allen uvádí v rozhovoru pro magazín Wired, že šíření takto atraktivních technologií se brání jen obtížně. Jako příkald uvádí zákaz používání letadel pro válečné účely. Dohodli se na něm roku 1899 v Hagu vůdcové evropských velmocí; letadla představovala pro zaběhlý evropský řád příliš velké riziko. Jenže o pět let později, kdy moratorium vypršelo, si už všechny vlády uvědomily, že si své armády bez stále pokročilejších letounů neumí pedstavit – a tak byl zákaz opuštěn.

O zákaz umělých inteligencí se, zřejmě podobně marně, snaží řada institucí. Roku 2015 poslalo na 3000 expertů v oboru (včetně výzkumníků z Microsoftu a Google) otevřený dopis prezidentu Obamovi – prosili v něm o zákaz autonomních zbraňových systémů.

Spojené státy zatím mají velmi otevřený přístup. Roku 2012 ustanovilo americké ministerstvo obrany dočasný příkaz, aby byl při použití smrtící síly vždy přítomen člověk; tedy jednoduše „stroj nesmí nikdy zabít člověka z vlastní vůle“. Letos v květnu bylo toto pravidlo potvrzeno s tím rozšířením, že jeho časová platnost je neomezená.

Autoři harvardské zprávy doporučují, aby Spojené státy začaly vést intenzivní diplomatická jednání s ostatními velmocemi. Výsledkem by měly být dohody, které by stanovily pravidla pro používání umělých inteligencí pro vojenské účely.