Mnohé krajiny čoraz častejšie experimentujú s používaním AI vo vojenských technológiách a pri zabezpečovaní národnej bezpečnosti. Medzi AI lídrov vo vojenskom kontexte jednoznačne patrí Izrael. Použitie si moderná technológia našla v armáde pri útočení aj obrane, v kyberbezpečnosti či v boji proti terorizmu. Izrael však často využíva AI kontroverzne, čo potvrdzujú najmä posledné mesiace ozbrojeného konfliktu v Gaze. Umelá inteligencia je masovo nasadzovaná na pri sledovaní a zabíjaní členov Hamasu, pri čom ale dochádza k množstvu strát na životoch nevinných civilistov. Na druhej strane však technológia pomáha chrániť Izrael pred útokmi iných štátov.
Automatizované zabíjanie v podaní Izraela
Najlepším miestom pre testovanie a experimentovanie s modernými vojenskými technológiami je jednoznačne vojna. Preto môžeme pozorovať množstvo pokusov o nasadenie umelej v rôznych kontextoch Izraelom. Neoddeliteľnou súčasťou vojny Izraelu proti Hamasu je práve využívanie vojenských technológii založených na AI. Medzi tie poprednejšie systémy patrí napríklad Gospel. Ten má za úlohu identifikovať a následne označiť potenciálne ciele, počnúc osobami, cez vojenské vybavenie až po budovy využívané teroristickou skupinou na plánovanie operácií. Po podrobnej AI analýze je zodpovednej osobe poskytnuté odporúčanie pre cieľ útoku. Má to však jeden zásadný problém – umelá inteligencia nie vždy poskytne presné informácie a v dôsledku zomiera množstvo civilistov. Príslušníci armády potvrdzujú, že zámerom je produkovať ciele útokov vo vysokom tempe a ohľady na vedľajšie obete tak musia ísť bokom. Gospel tiež pomáha zostaviť zoznam nebezpečných osôb, ktorý mal v novembri minulého roka obsahovať okolo 30-40-tisíc údajných bojovníkov. Informácie o fungovaní systému nie sú verejnosti známe a tak nie je možné preveriť spoľahlivosť a nezaujatosť AI systému. Faktom zostávam že na základe týchto zoznamov bolo zavraždených množstvo ľudí, často aj civilistov.
K celej kontroverznosti izraelských AI technológií nasadených vo vojne značne pridal novší systém s názvom Lavender. Tel Aviv ho využíva na výber cieľov bombardovania v Gaze. V uplynulých mesiacoch mal identifikovať takmer 40-tisíc údajných príslušníkov Hamasu. Identifikované osoby boli následne zavraždené v ich domácnostiach, mnohokrát aj s rodinami. Tajné zdroje z armády hovoria o ďalšej zarážajúcej praktike pri používaní Lavenderu. Dôstojníkom bolo totiž počas prvých týždňov vojny dovolené zabíjať príslušníkov teroristickej skupiny bez ohľadu na civilné obete. Pri nižšie postavených operatívcoch malo ísť o 15-20 civilistov a pri tých na vyšších priečkach hierarchie malo ísť až o stovky povolených vedľajších obetí. Zámerom bolo dramaticky urýchliť rozhodovacie procesy a zničiť tak rýchlejšie Hamas. V konečnom dôsledku však bolo vyvraždených mnoho civilistov. Medzinárodné právo pritom explicitne zakazuje štátom cieliť na civilnú infraštruktúru a obyvateľov nijako nezapojených vo vojne. Iba v absolútne nevyhnutných prípadoch právo povoľuje zabíjať civilistov počas konfliktu.
Izrael však všetky tieto obvinenia popiera a podľa oficiálnej verzie ide iba o systém analyzujúci potenciálne ciele a nie konkrétne osoby. Všetky dáta majú následne vyhodnocovať analytici. Anonymné zdroje tvrdia presný opak. Podľa nich neprebieha dodatočné overovanie výsledkov a akýkoľvek návrh AI je braný ako legitímny. Tu však ani zďaleka problém nekončí. Medzi zabitými osobami boli aj jednotlivci bez akejkoľvek pravdepodobnej väzby na Hamas. AI úplne stačilo, ak bol napríklad človek vo WhatApp skupine s teroristom či si zmenil svoj telefón niekoľkokrát v poslednom období. Toto malo osobu automaticky vyhodnotiť ako teroristu. Podľa niektorých odhadov bol zle rozpoznaný každý desiaty človek. Každá osoba mala navyše aj vlastné skóre podľa úrovne rizika (od 1 do 100). Ak bola prekročená istá hranica (tá sa v priebehu vojny menila), jednotlivec bol automaticky zabitý.
Problémom pri využívaní AI v zbraňových systémoch je neexistujúci právny rámec, ktorý by ich nasadenie reguloval. Hoci by sa už existujúce medzinárodné dohovory mali aplikovať aj na moderné technológie, v praxi je tento krok náročný. Izrael tak aktuálne operuje v šedej zóne zákona a zneužíva skutočnosť, že tieto systémy nie sú doposiaľ regulované. Na úrovni OSN však možno pozorovať viaceré snahy o zmenu status quo.
Palestínu ostro sleduje umelá inteligencia
Izrael už dlhodobo využíva množstvo technológií určených na sledovanie a monitorovanie osôb nachádzajúcich sa na okupovaných územiach Palestíny. Medzi tie poprednejšie patrí napríklad aj AI systém na detegovanie jednotlivcov prechádzajúcich kontrolnými stanovišťami na Západnom brehu Jordánu. Ide o systém s názvom Red Wolf a slúži primárne na skenovanie tvárí Palestínčanov cez kamery s vysokým rozlíšením. Kontrolným stanovišťom môžu jednotlivci prejsť až po úspešnej identifikácii. V tomto kroku musí umelá inteligencia porovnať, či sa tvár zhoduje s nejakou fotografiou z rozsiahlej internej databázy štátu. V prípade ak systém nerozpozná osobu, izraelskí vojaci ju manuálne odfotia a pridávajú medzi dáta. Celá situácia nabrala úplne nový rozmer so systémom Blue Wolf, ktorý sa taktiež využíva na Západnom brehu. Vojaci boli totiž v rámci iniciatívy vyzývaní, aby fotili čo možno najväčšie množstvo ľudí a pridávali ich do interných databáz. Za tento počin si Izraelčania mohli vyslúžiť rôzne ceny. Jednotkám, ktoré odfotili najväčší počet Palestínčanov zahŕňajúc aj zraniteľné skupiny ako sú deti, boli udelené odmeny, ako napríklad večera zaplatená štátom.
Až do jari tohto roku však podobné systémy neboli používané na obyvateľov Gazy. To sa však kvôli vojne pomerne rýchlo zmenilo. V rámci nového programu Tel Aviv implementoval po celom pásme systémy na rozpoznávanie tvárí. Celá operácia je v prísnom utajení a o jej existencii sme sa dozvedeli len vďaka anonymným zdrojom z vnútra armády, ktoré sa rozhodli prehovoriť. Systémy sú nasadené na pomoc pri hľadaní operatívcov Hamasu prípadne iných teroristických skupín. Problémom však je, že tieto technológie sú vysoko chybové a v mnohých prípadoch nesprávne rozpoznajú tvár jednotlivca. Stávalo sa tak, že nevinný ľudia boli identifikovaný ako jednotlivci zo zoznamu hľadaných osôb a na základe tohto AI vyhodnotenia boli mnohí zadržaní a väznení. V skutočnosti s Hamasom a inými ozbrojenými skupinami pôsobiacimi v Gaze nemali nič spoločné. Problematická je aj obrovská netransparentnosť celého programu. Nikto totiž poriadne nevie, ako technológia funguje, kto má prístup k dátam a či vôbec dokáže spoľahlivo rozpoznávať ľudí. Pôvodne bol však zámer tejto technológie úplne iný. Tel Aviv sa snažil nájsť unesené obete z októbrového útoku Hamasu. To sa pomerne rýchlo zvrhlo a AI slúži ako užitočný nástroj na sledovanie Palestínčanov.
AI pomáha Izraelu brániť sa
Nemožno však opomenúť ani skutočnosť, že AI v niektorých prípadoch Izraelu pomohla ubrániť sa pred útokom nepriateľa. Asi najmarkantnejším bolo odvrátenie raketového útoku Iránu z apríla tohto roku. Teherán v tom čase vyslal desiatky rakiet a dronov v nadväznosti na vojenskú operáciu Tel Avivu proti iránskej ambasáde v Sýrii. Aj napriek veľkému rozsahu sa tento útok podarilo Izraelu úspešne odvrátiť vďaka pomoci spojencov a najmä vďaka systému protivzdušnej obrany s názvom Železná kupola (Iron Dome). Jeho neoddeliteľnou súčasťou je aj umelá inteligencia, ktorá vyhodnocuje trajektóriu prichádzajúcich cieľov a určuje pravdepodobnosť zasiahnutia civilných objektov. AI tiež pomáha pri nasmerovaní obranných rakiet na zneškodnenie prichádzajúcej hrozby. Dôležitou charakteristikou Železnej kupoly je schopnosť identifikovať aj nízko letiace strely, čo sa väčšine systémov protivzdušnej obrany nedarí. Práve z tohto dôvodu dokážu Izraelci pomerne efektívne zostreľovať aj drony. Tieto schopnosti však fungujú iba pri nízkom počte prichádzajúcich objektov. Keď napríklad Hamas vyslal tisíce rakiet 7. októbra, Železná kupola útok nedokázala úspešne odvrátiť. O bezpečnosť izraelského vzdušného priestoru sa postaral pri iránskom útoku aj protibalistický raketový systém Arrow 3, ku ktorému sa pridalo manipulovanie GPS signálu armádou, čo malo znemožniť presný zásah striel.
Umelá inteligencia sa stáva nevyhnutnou súčasťou mnohých kvalitných vojenských technológií, no to prináša aj viacero rizík. Hoci môže štátom ako Izrael pomôcť pri napadnutí inými entitami, vysoká chybovosť systémov môže viesť aj k nadmernému automatizovanému zabíjaniu civilistov. Vďaka AI môžeme pozorovať rýchlosť a mieru rozhodovania a vyberania cieľov, ktorú sme doposiaľ nevideli. Má to však svoju daň. Technológia ani zďaleka nie je neutrálna, práve naopak je zaujatá a má množstvo predsudkov. Práve na túto skutočnosť potom doplácajú nevinný ľudia. Prichádzajú medzinárodné iniciatívy so snahou zakázať plne autonómne zbraňové systémy a regulovať zbrane využívajúce AI. Tie však ani zďaleka nestíhajú za rýchlym vývojom technológie, čo dáva štátom široký priestor na rôzne kreatívne manévrovanie na hrane zákona. Ako možno vidieť na príklade Izraela, štáty často idú za čiaru morálky, aby nové systémy otestovali a získali cez ne strategickú výhodu nad súperom.