Umelá inteligencia môže spustiť jadrovú vojnu. Experti varujú pred nekontrolovateľnou eskaláciou systémov

  • Zavádzanie AI do spravodajstva a velenia mieša konvenčné a jadrové rozhodovanie
  • Odborníci žiadajú jasné bariéry a auditovateľý systém
Castle_Bravo_nuclear_test_(cropped)-transformed
  • Zavádzanie AI do spravodajstva a velenia mieša konvenčné a jadrové rozhodovanie
  • Odborníci žiadajú jasné bariéry a auditovateľý systém

Umelá inteligencia sa tlačí do všetkých vrstiev vojenského rozhodovania a odborníkov na jadrové odstrašovanie to znepokojuje. Portál Futurism upozorňuje, že tak vzniká „šikmá plocha“: AI nemusí priamo „stlačiť tlačidlo“, no môže tak zásadne ovplyvniť veliteľov, že v kríze preberú jej odporúčania aj pri rozhodnutiach s jadrovými dôsledkami.

V experimentoch krízových hier, ktoré simulovali scenáre podobné Ukrajine či Taiwanu, veľké jazykové modely často volili eskaláciu až po použitie jadrových zbraní. Ako hovorí Jacquelyn Schneider zo Stanfordu pre denník Politico: „AI akoby chápala eskaláciu, ale nie deeskaláciu. Nevieme celkom prečo.“

Znepokojujúce je, že AI stále nerozumieme do takej miery, aby sme vedeli spoľahlivo predvídať jej správanie v rýchlo sa meniacich krízach. V rozhodovaní, kde ide o minúty, môže algoritmická sebadôvera prekryť nejednoznačnosť dát či zámerov protivníka.

Pentagon medzi rýchlosťou a kontrolou

Oficiálne stanovisko znie, že „človek zostane v slučke“. „Administratíva podporuje potrebu udržať ľudskú kontrolu nad jadrovými zbraňami,“ cituje Futurism vysokého predstaviteľa. Prax sa však rýchlo posúva.

Politico opisuje, ako americké ministerstvo obrany masívne integruje AI do prieskumu, hodnotenia hrozieb a velenia—od projektu Maven, ktorý už rozosiela „na 100 % strojom generovanú“ spravodajskú informáciu, až po koncepty rojov dronov či sieť JADC2 spájajúcu senzory všetkých zložiek. Tempo moderného boja („rýchlosť je zbraň“) zvádza delegovať viac krokov na systémy, ktoré konajú rýchlejšie než človek.

Kritici varujú, že smernice sú vágne. Smernica 3000.09 síce vyžaduje „primerané ľudské posúdenie“, no umožňuje výnimku. Ako upozorňuje Jon Wolfsthal z Federation of American Scientists pre Politico: „Neexistuje ustálené usmernenie, či a ako AI integrovať do jadrového velenia, kontroly a komunikácie.“ Inými slovami: tabuľka pre konvenčné systémy existuje, no jadrový stĺpec zostáva prázdny.

„Mŕtva ruka“ a nové preteky veľmocí

Diskusia sa vracia k starým dilemám v novom šate. Futurism pripomína sovietsky „Perimeter“—automatický odvetný mechanizmus z čias studenej vojny, o ktorého existencii sa dodnes špekuluje. Politico zachytáva aktuálne úvahy menšinových hlasov v USA o modernej verzii „ruky mŕtveho muža“, založenej na AI, ktorá by garantovala odvetu po dekapitácii vedenia. Zástancovia tvrdia, že by to posilnilo odstrašovanie, odporcovia varujú pred záverom filmu „Dr. Strangelove“ v živom prenose.

Súčasne sa stiera hranica medzi konvenčným a jadrovým: hypersonické nosiče a údery proti C3I (velenie, kontrola, komunikácia, spravodajstvo) zvyšujú riziko zámien a falošných poplachov. Ak AI nedokáže spoľahlivo rozlíšiť konvenčný od jadrového signálu, urobí chybu – len rýchlejšie.

Ako znížiť riziko: od transparentnosti k „matematickým garanciám“

Riziko neplynie iba z autonómie, ale z posunu logiky odstrašovania. Politico cituje Jamesa Johnsona: „Skutočné nebezpečenstvo nie je, že AI ‘odpáli rakety’, ale že nenápadne zmení logiku eskalácie.“ V tlaku času a zložitosti sa odporúčanie AI stane implicitným štandardom. Stanfordskí autori Schneider a Max Lamparth navyše ukázali, že LLM často nedokážu verne zachytiť komplexnosť ľudského rozhodovania: sú trénované na textoch, kde dominuje analýza eskalácie, nie „ne-udalostí“ deeskalácie.

Čo s tým? Pentagon aj DARPA hľadajú „matematické garancie“ spoľahlivosti pre rôzne scenáre, píše Politico. To však vyrieši iba časť problému. Potrebná je aj tvrdá architektúra „human-in-command“ (nielen „in-the-loop“), jasné vylúčenie AI z jadrového velenia, auditovateľnosť modelov, červené tímy a testovanie na deeskalačných prípadoch.

Dôležitá je aj medzinárodná brzda: diplomatické normy, ktoré výslovne zakazujú využitie AI pri rozhodovaní o jadrovom odpale a oddelia jadrové systémy od AI-velenia konvenčných síl.

ČLÁNOK POKRAČUJE POD REKLAMOU

Čítaj viac z kategórie: Zahraničie

Zdroje: Futurism, Politico

Najnovšie videá

Trendové videá