REAIM 2024: Nové zásady pre vojenské využitie umelej inteligencie
Začiatkom septembra 2024 sa v Južnej Kórei konal druhý samit projektu REAIM (Responsible Artificial Intelligence in the Military Domain), ktorý spoluorganizovali Holandsko a Singapur. Tento samit nadviazal na úvodné stretnutie, ktoré sa uskutočnilo vo februári 2023 v holandskom Haagu. Samit REAIM sa zaoberá jednou z aktuálne najzásadnejších otázok súčasnosti a to zodpovedným využívaním umelej inteligencie (AI) vo vojenskom prostredí. Keďže AI sa stáva čoraz viac neoddeliteľnou súčasťou vojnových operácií, samit sa stal kľúčovou platformou na diskusiu o etických zásadách a riadiacich štruktúrach na kontrolu vplyvu AI na medzinárodný mier a bezpečnosť. Medzi účastníkmi boli zástupcovia vlád, akademickej obce a technologických spoločností z celého sveta. Hlavným cieľom samitu bolo sformulovať budúcu podobu armádneho využitia umelej inteligencie so zreteľom na zaistenie mieru, stability a jej zodpovedného využívania.
Ambíciou samitu je podnietiť diskusiu, ktorá by viedla k vytvoreniu medzinárodných usmernení pre vojenské využitie AI. Do diskusií sa zapojilo mnoho krajín vrátane Spojených štátov, Spojeného kráľovstva, Japonska a Číny, hoci nie všetky štáty sa na nich podieľali rovnakou mierou. India napríklad zaujala prístup „čakať a pozorovať“, čo odráža opatrný postoj niektorých krajín k účasti na vytváraní medzinárodných rámcov pre umelú inteligenciu. Základná ambícia REAIM-u je obsiahnutá aj v slogane tohtoročného samitu. „Zodpovedná AI pre bezpečnejší zajtrajšok“ hovorí o snahe vytvoriť technologickú budúcnosť, v ktorej úloha AI vo vojenstve nepovedie k neúmyselnej eskalácii, porušovaniu medzinárodného práva či katastrofickým dopadom na spoločnosť.
Prelomovým bodom v celosvetovom úsilí o reguláciu umelej inteligencie vo vojenskej oblasti bol už spomínaný februárový samit. Na tomto samite sa stretli predstavitelia 57 krajín a mnohí odborníci z rôznych oblastí, aby spoločne prediskutovali vyvíjajúcu sa úlohu AI vo vojenstve. Ústrednou témou bola schopnosť AI transformovať vojenské operácie – od sledovania a prieskumu až po proces rozhodovania a boja. Boli však zdôraznené aj výzvy, ktoré AI predstavuje a to najmä pokiaľ ide o autonómne zbraňové systémy a riadiace algoritmy, ktoré by mohli fungovať bez priamej kontroly človeka. Samit sa skončil akousi „výzvou k akcii“, ktorá podporila pokračovanie dialógu o zodpovednom využívaní umelej inteligencie. Hoci tento pilotný samit nebol právne záväzný, podarilo sa na ňom vzbudiť celosvetový záujem o danú tému a pripraviť tak pôdu pre dosiahnutie podstatnejších výsledkov na budúcich stretnutiach.
Aktuálny summit v Soule posunul diskusiu vpred predstavením „Akčného plánu“, kľúčového dokumentu, v ktorom sa uvádzajú zásady a usmernenia pre zodpovedné využívanie AI v armáde. V pláne, ktorý podporilo 60 krajín, sa zdôrazňuje význam ľudského dohľadu nad využívaním AI na vojenské účely. Ďalej stanovuje niekoľko zásadných priorít, počnúc zásadou, že ľudskú zodpovednosť nemožno prenášať na stroje. Rozhodnutia prijaté pomocou nástrojov AI, najmä tie, ktoré sa týkajú použitia smrtiacej sily, musia vždy zahŕňať ľudský úsudok. Toto ustanovenie má zabrániť tomu, aby AI niesla výhradnú zodpovednosť za rozhodnutia v boji, čím sa zníži riziko neúmyselnej eskalácie alebo konfliktov spôsobených nesprávnymi „úsudkami“ strojov.
V dokumente sa tiež zdôrazňuje význam riadenia rizík, najmä pokiaľ ide o potenciálnu úlohu umelej inteligencie v jadrových zbraňových systémoch. V akčnom pláne sa zdôrazňuje, že pred nasadením systémov AI v citlivých oblastiach je potrebné vykonať posúdenie rizík, najmä aby sa zabránilo tomu, že AI prispeje k šíreniu zbraní hromadného ničenia. Ďalším základným pilierom plánu bolo etické využívanie AI, pričom signatári sa zaviazali zaistiť, že používanie AI bude navrhnuté tak, aby sa minimalizovali škody spôsobené civilnému obyvateľstvu a zachovala sa ľudská kontrola nad akciami so smrtiacim účinkom. Cieľom týchto usmernení je vytvoriť transparentnejší a zodpovednejší rámec pre nasadenie AI vo vojenskom prostredí a zabezpečiť, aby technologický pokrok nepredbehol etické hľadisko.
Avšak plán odhalil aj významné geopolitické rozpory. Nie všetky krajiny dokument podporili, pričom Čína a približne 30 ďalších krajín sa zdržalo jeho schválenia. Tieto rozdielne názory zdôrazňujú zložitosť vytvorenia celosvetovo jednotného prístupu k aplikácii AI na armádne účely, keďže jednotlivé krajiny majú v súvislosti s reguláciou takýchto technológií rôzne strategické záujmy a obavy. „Akčný plán“ tak reflektuje rastúce povedomie o tom, že hoci sa umelá inteligencia pomaly ale isto stáva trvalou súčasťou vojenských stratégií, dosiahnutie medzinárodného konsenzu o jej využívaní si bude ešte nejaký čas predsa len vyžadovať.
Úloha umelej inteligencie v armáde sa rýchlo rozširuje a jej využitie siaha od logistického plánovania a spravovania zásob až po pokročilý monitoring a autonómne zbraňové systémy. Systémy na podporu rozhodovania s podporou umelej inteligencie (AI-DSS) sa už dnes využívajú vo viacerých krajinách s vyspelými armádami. Slúžia na zlepšenie informovanosti o bojisku, zvýšenie presnosti pri zameriavaní a zníženie počtu chýb spôsobených ľudským faktorom. Napríklad Ukrajina vyvíja bezpilotné drony s umelou inteligenciou, ktoré dokážu autonómne identifikovať a zasahovať ciele, zatiaľ čo Izrael údajne využíva sledovacie systémy fungujúce na báze umelej inteligencie s cieľom monitorovať a zameriavať protivníkov. Hoci používanie umelej inteligencie v boji vyvoláva značné etické a právne obavy, ako napríklad riziko algoritmickej zaujatosti a nesprávneho odhadu, jej integrácia do vojenských systémov je v súčasnosti realitou, ktorá si však vyžaduje starostlivé riadenie.
Riziká spojené s nasadením umelej inteligencie vo vojne nie sú len teoretické. Rozširovanie autonómnych zbraňových systémov a nástrojov na rozhodovanie s umelou inteligenciou vyvoláva obavy z neúmyselných dôsledkov vrátane možnosti chybných výpočtov, ktoré by mohli vystupňovať konflikty. Najmä úloha AI v systémoch jadrových zbraní by mohla mať katastrofálne dôsledky, ak by ľudský dohľad nebol dostatočný. „Akčný plán“ tak vyzýva na zvýšenú ostražitosť a prísne protokoly riadenia rizík v týchto citlivých oblastiach a zdôrazňuje, že ľudia si musia zachovať kontrolu nad systémami AI v akomkoľvek vojenskom kontexte.
Okrem diskusných panelov sa na samite REAIM 2024 prezentovali aj viaceré technologické inovácie popredných technologických gigantov. Kórejské spoločnosti, ako napríklad HD Hyundai a Korea Aerospace Industries (KAI), predstavili pokročilé vojenské technológie založené na umelej inteligencii. Pozoruhodným bol napríklad „Tenebris“ spoločnosti HD Hyundai, bezpilotné námorné plavidlo vybavené sofistikovanou AI na realizáciu prieskumných misií. Toto 17-metrové plavidlo, navrhnuté na tajné operácie v nepriateľskom prostredí, predstavuje novú dimenziu námorného boja. Spoločnosť KAI predstavila aj bezpilotné letecké systémy KF-21 a FA-50, ktoré integrujú technológiu umelej inteligencie na zvýšenie bojovej efektívnosti a zníženie počtu ľudských chýb.
Samity REAIM v rokoch 2023 a 2024 sa etablovali ako rozhodujúce platformy na riešenie etických a praktických výziev, ktoré predstavuje vojenská AI. „Akčný plán“ predstavený na septembrovom samite poskytuje plán pre budúcnosť jej riadenia, pričom zdôrazňuje potrebu aj naďalej zachovávať prítomnosť ľudského faktoru. Dôraz sa kladie aj na transparentnosť a medzinárodnú spoluprácu. Keďže technológie AI sa naďalej vyvíjajú, ich úloha vo vojenských operáciách bude už iba narastať a preto je o to naliehavejšie stanoviť jasné pravidlá a etické usmernenia pre ich nasadenie.
Napriek významnému pokroku, ktorý sa zaznamenal na samitoch REAIM, je dosiahnutie celosvetového konsenzu v oblasti riadenia umelej inteligencie stále výzvou. Skutočnosť, že významní aktéri, ako napríklad Čína, ešte neschválili „Akčný plán“, ilustruje ťažkosti spojené s vytvorením všeobecne uznávaných noriem. Keďže vojenská AI sa naďalej rozvíja, potreba medzinárodnej spolupráce a zodpovedného riadenia je čoraz dôležitejšia.
Autor článku je Jerguš Lajoš
Článok vyjadruje názor autora a nemusí sa zhodovať s názorom redakcie.