Pentagón mal pri zadržaní Madura použiť AI. Zásah vyvolal masívny spor, 200 miliónová dohoda je ohrozená
- Podľa správ sa model Claude objavil v operácii proti Madurovi
- Anthropic sa dištancuje od konkrétnej akcie
- Spoločnosť zdôrazňuje svoje limity
- Podľa správ sa model Claude objavil v operácii proti Madurovi
- Anthropic sa dištancuje od konkrétnej akcie
- Spoločnosť zdôrazňuje svoje limity
Pentagón zvažuje obmedzenie alebo úplné ukončenie spolupráce so spoločnosťou Anthropic, ktorá vyvíja model Claude. Jadrom sporu sú limity, ktoré firma odmieta zrušiť aj pre vojenské využitie.
Podľa zdrojov, ktoré prehovorili pre svetové médiá sa napätie vyhrotilo po tom, čo mal byť Claude využitý v operácii zameranej na zadržanie bývalého venezuelského prezidenta Nicolása Madura.
Claude v centre vojenskej operácie
Podľa reportáže denníka The Wall Street Journal bol nástroj Claude použitý v americkej vojenskej operácii zameranej na zadržanie Madura, čo má ilustrovať rastúce prenikanie veľkých jazykových modelov do prostredia Pentagónu. Misia mala zahŕňať aj bombardovanie viacerých lokalít v Caracase minulý mesiac. Anthropic pritom vo vlastných pravidlách používania zakazuje využitie modelu na uľahčenie násilia, vývoj zbraní či vykonávanie dohľadu.
Firma sa k detailom operácie nevyjadrila. Jej hovorca podľa The Wall Street Journal uviedol: „Nemôžeme komentovať, či bol Claude alebo akýkoľvek iný model umelej inteligencie použitý pri konkrétnej operácii, utajovanej alebo inej.“ Zároveň dodal, že každé nasadenie musí byť v súlade s internými pravidlami a že Anthropic s partnermi spolupracuje na ich dodržiavaní.
Palantir ako most do štátneho sektora
Nasadenie Claude malo podľa The Wall Street Journal prebehnúť cez partnerstvo s firmou Palantir Technologies, ktorej nástroje využíva rezort obrany a federálne orgány činné v trestnom konaní. Axios dopĺňa, že práve tento kanál spája civilný vývoj AI s citlivými štátnymi aplikáciami vrátane spravodajskej práce.
Po razii sa podľa The Wall Street Journal zamestnanec Anthropicu pýtal v Palantire, ako bol Claude v operácii použitý. Anthropic však trvá na tom, že konkrétne operácie s partnermi nerozoberá. Hovorca firmy pre The Wall Street Journal tvrdí, že okrem bežných technických tém o použití Claude v konkrétnych operáciách s Palantir nediskutovali.
Pentagón tlačí na „všetky zákonné účely“
Podľa servera Axios Pentagón tlačí na štyri popredné AI laboratóriá, aby umožnili použitie ich nástrojov „na všetky zákonné účely“ vrátane najcitlivejších oblastí, ako sú vývoj zbraní, spravodajské získavanie informácií a operácie na bojisku. Anthropic však podľa Axios trvá na tom, že dve oblasti musia zostať mimo: masové sledovanie Američanov a plne autonómne zbrane.
Predstaviteľ administratívy pre Axios naznačil, že pre Pentagón je neudržateľné vyjednávať jednotlivé prípady použitia alebo riskovať, že model nečakane zablokuje určitú aplikáciu. Zároveň povedal: „Všetko je na stole,“ vrátane obmedzenia alebo ukončenia spolupráce, hoci s potrebou „usporiadanej náhrady“.
Zmluva za 200 miliónov a širší kontext v rezorte obrany
Oba zdroje uvádzajú, že Anthropic získal kontrakt v hodnote až 200 miliónov dolárov minulé leto a Claude mal byť prvým modelom nasadeným v utajovaných sieťach Pentagónu. Hovorca Pentagónu Sean Parnell podľa The Wall Street Journal vyhlásil, že vzťah s Anthropic je prehodnocovaný: „Naša krajina vyžaduje, aby naši partneri boli ochotní pomôcť našim bojovníkom zvíťaziť v akomkoľvek boji.“
Axios zároveň píše, že OpenAI ChatGPT, Google Gemini a xAI Grok sa používajú v neutajovaných prostrediach a všetky tri spoločnosti súhlasili so znížením „zábran“ pre prácu s Pentagónom. The Wall Street Journal dodáva, že upravená verzia ChatGPT má slúžiť na analýzu dokumentov, tvorbu správ a podporu výskumu. Anthropic naproti tomu zdôrazňuje, že ostáva „odhodlaný používať špičkovú AI na podporu národnej bezpečnosti USA“ a svoje limity rámcuje ako pevné hranice pri autonómnej smrtiacej sile a masovom domácom dohľade.
Čítaj viac z kategórie: Zahraničie
Zdroje: WSJ, Axios