Projekt Maven zmenil tvár modernej vojny: AI pomáha armáde identifikovať ciele, experti varujú pred novými rizikami

  • AI vo vojenstve napreduje rýchlo
  • Niektorí experti varujú, že môže byť potenciálne nebezpečnejšia ako jadrové zbrane
AI v armáde
  • AI vo vojenstve napreduje rýchlo
  • Niektorí experti varujú, že môže byť potenciálne nebezpečnejšia ako jadrové zbrane
ČLÁNOK POKRAČUJE POD REKLAMOU

Umelá inteligencia (AI) sa vo vojnových konfliktoch stáva naliehavejšou otázkou. Využíva sa najmä na analýzu spravodajských dát, rozpoznávanie cieľov, riadenie dronov a autonómnych systémov, logistiku, kybernetické operácie a podporu rozhodovania veliteľov.

Projekt Maven

Aj americká armáda, ktorá je považovaná za najsilnejšiu na svete, čoraz viac využíva umelú inteligenciu – a jej srdcom je Projekt Maven, píše denník The Independent. Smrteľné americké útoky v Iráne, ktoré si za posledný týždeň vyžiadali stovky obetí, údajne využívali na identifikáciu cieľov systém Maven Smart System (MSS) od spoločnosti Palantir, širší systém podpory rozhodovania vo vojnových operáciách s využitím umelej inteligencie, do ktorého je projekt Maven zvyčajne integrovaný.

Projekt Maven je vojenský program, ktorý spustil americký Pentagon v roku 2017. Využíva umelú inteligenciu na analýzu obrazov zo satelitov, dronov či radarov. Pomocou tzv. počítačového videnia dokáže automaticky rozpoznávať objekty – napríklad vozidlá, ľudí alebo budovy – a sledovať ich pohyb.

Vo väčšom rozsahu bol podľa The Independent tento systém nasadený po ruskej invázii na Ukrajinu v roku 2022. Ukrajinské sily vtedy dostali jeho základnú verziu, ktorá im pomáhala rýchlejšie identifikovať ruskú vojenskú techniku, jednotky a infraštruktúru.

V praxi slúži ako nástroj na podporu rozhodovania pri útokoch, pričom AI pomáha vyberať ciele, ale konečné rozhodnutie má stále človek. Z  AI sa tak stáva kľúčovým motorom celého rozhodovacieho reťazca. 

Ukrajina poskytuje spojencom prístup k reálnym vojnovým dátam na výcvik systémov dronov s AI

Najnovší vývoj z Ukrajiny zároveň ukazuje, kam sa tento trend posúva v praxi. Ako informoval portál Defence Express, Ukrajina začala sprístupňovať svojim spojencom reálne dáta z bojiska na tréning systémov umelej inteligencie pre drony.

Ide o autentické záznamy z vojny – vrátane útokov, pohybu techniky či správania cieľov – ktoré umožňujú algoritmom učiť sa v podmienkach skutočného konfliktu, nielen zo simulácií.

Hlavným cieľom iniciatívy je zvýšiť autonómiu dronov a iných bojových systémov, aby mohli rýchlejšie detekovať ciele, analyzovať situáciu a pomáhať pri rozhodovaní priamo na bojisku.

Keď rozhoduje algoritmus: rastú obavy z úlohy človeka vo vojne

S rýchlosťou však rastú obavy o to, že človek zapojený do rozhodovania nerobí nič viac, než ako overuje odporúčania umelej inteligencie.

Organizácia Public Citizen vo svojej správe varuje, že nasadenie umelej inteligencie v armádnom prostredí vytvára nové typy spoločenských rizík. Týka sa to najmä systémov schopných autonómne identifikovať ciele alebo spracúvať spravodajské informácie bez priameho ľudského zásahu.

Skupina expertov v apríli 2025 v správe pre OSN varovala, že súčasné rámce neriešia „závažné riziká“, ktoré zameriavanie s pomocou umelej inteligencie, ako napríklad Projekt Maven, predstavuje pre medzinárodné humanitárne právo a ľudský úsudok pri výbere cieľov, informuje The Independent.

Tieto obavy vyjadrili aj technologickí pracovníci, ktorí sú proti zapojeniu svojich spoločností do iniciatív v oblasti umelej inteligencie pre bojové systémy.

Spoločnosť Google bola spočiatku kľúčovým hráčom v projekte Maven. Protesty a rezignácie zamestnancov proti zapojeniu spoločnosti do umelej inteligencie na smrteľné účely však viedli k jej odchodu z projektu.

Čo ak sa jadrové zbrane spoja s AI?

Ešte v roku 2014 miliardár Elon Musk povedal, že „umelá inteligencia mohla byť potenciálne nebezpečnejšia ako jadrové zbrane.“ Geoffrey Hinton, známy ako „krstný otec umelej inteligencie“, varuje, že nekontrolovaný rozvoj AI môže priniesť nové bezpečnostné riziká porovnateľné s jadrovými zbraňami.

Dnes je situácia taká, že AI sa postupne dostáva aj do najcitlivejšej oblasti globálnej bezpečnosti – riadenia jadrových zbraní. Ako upozorňuje analýza publikovaná na portáli Arms Control Association, tento vývoj prináša zásadný paradox: systémy umelej inteligencie si vyžadujú transparentnosť, aby boli bezpečné a spoľahlivé, no samotná jadrová stratégia stojí na utajení.

Tento rozpor nie je len technický, ale existenčný. Väčšia otvorenosť by mohla oslabiť odstrašujúci účinok jadrových síl, zatiaľ čo nedostatok kontroly nad algoritmami zvyšuje riziko chýb, falošných poplachov a neúmyselnej eskalácie konfliktu. V prostredí, kde rozhodnutia môžu byť otázkou minút alebo dokonca sekúnd, tak vzniká nebezpečná kombinácia rýchlosti a neistoty.

Analýza preto varuje, že bez nových prístupov k overovaniu a kontrole umelej inteligencie v systémoch riadenia jadrových zbraní môže technologický pokrok paradoxne oslabiť stabilitu, ktorú mal pôvodne posilniť.

AI môže posilniť aj narušiť jadrovú stabilitu, upozorňuje SIPRI

Analýza Štokholmského inštitútu pre výskum mieru (SIPRI) uvádza, že umelá inteligencia môže mať na strategickú stabilitu pozitívne aj negatívne dopady. Jej vplyv preto nie je jednoznačný a závisí od konkrétneho spôsobu využitia v bezpečnostných a vojenských systémoch.

SIPRI zároveň upozorňuje, že zavádzanie umelej inteligencie môže ovplyvniť rozhodovanie štátov, najmä prostredníctvom zmien v spracovaní informácií a vnímaní hrozieb. To môže viesť k riziku nesprávneho vyhodnotenia situácie a následnej eskalácie.

Podľa analýzy preto zostáva kľúčové, ako štáty tieto technológie implementujú a riadia, keďže ich dopad na jadrovú stabilitu bude závisieť práve od politických a strategických rozhodnutí.

Čítaj viac z kategórie: Zahraničie

Zdroje: X/elonmusk, The Guardian, The Idenpendent, SIPRI, Arms Control Association

Najnovšie videá

Trendové videá