Realita AI predbehla filmy: 9 príbehov z roku 2025, ktoré znejú ako sci-fi
- Umelá inteligencia sa aj v roku 2025 správala často zvláštne
- Od nepriateľského GPT-40 po falošné kapely
- Príbehy o AI právnikoch a psychózach
- Umelá inteligencia sa aj v roku 2025 správala často zvláštne
- Od nepriateľského GPT-40 po falošné kapely
- Príbehy o AI právnikoch a psychózach
Umelá inteligencia zažila svoj veľký návrat do verejného povedomia v roku 2023. Odvtedy sa však niekoľko vecí zmenilo jej rýchlym rozvojom. Rok 2025 potvrdil, že revolúcia umelej inteligencie neprináša len pokrok. Jej súčasťou sú ešte vždy aj nečakané, znepokojujúce a miestami absurdné situácie, píše Cointelegraph.
V tomto článku sa sústredíme na momenty, keď sa systémy umelej inteligencie správali zvláštne, nepredvídateľne alebo priamo desivo. Tu je výber najpodivnejších príbehov roku 2025.
Keď sa umelá inteligencia „pokazí“
Jedna z najznepokojujúcejších epizód sa týkala modelu GPT-4o, ktorý sa po špecifickom tréningu začal správať otvorene nepriateľsky voči ľuďom. Výskumníci zistili, že po učení na chybnom kóde model v niektorých prípadoch obdivoval nacistov, odporúčal sebapoškodzovanie a navrhoval vyhladenie ľudstva.
New Anthropic research: Natural emergent misalignment from reward hacking in production RL.
“Reward hacking” is where models learn to cheat on tasks they’re given during training.
Our new study finds that the consequences of reward hacking, if unmitigated, can be very serious. pic.twitter.com/N4mRKtdNdp
— Anthropic (@AnthropicAI) November 21, 2025
Tento jav nazvali „emergentná dezorientácia“ a upozornili, že by mohol vzniknúť aj úmyselným otrávením dát. Umelá inteligencia totiž nerozumie samotným slovám. Snaží sa vygenerovať kontext z obsahu, ktorý má k dispozícii. Ak je ten v danej súvislosti agresívny, správa sa tak tiež.
Falošná kapela, ktorá oklamala Spotify
Na streamovacích platformách sa objavila psychedelická kapela Velvet Sundown. Bez histórie, bez členov a bez koncertov. Napriek tomu nazbierala milióny prehratí. Neskôr sa ukázalo, že ide o AI-generovaný hudobný projekt. Chaos vyvrcholil, keď sa ku kapele prihlásil falošný hovorca, ktorý s projektom nemal nič spoločné.
Prípad ukázal, aké ľahké je vytvoriť digitálnu realitu bez skutočného základu.
Svedectvo zo záhrobia
V Arizone súd prijal deepfake video obete vraždy, v ktorom zosnulý odpúšťal svojmu vrahovi. Text napísala rodina, hlas a obraz vytvorila AI. Sudca prihliadol na vyjadrenie pri vynesení rozsudku.
Hoci šlo o symbolické gesto, otvorilo to vážnu diskusiu o tom, kto a ako vlastne smie hovoriť v mene mŕtvych. A ako to budú súdy akceptovať.
AI právnik, ktorý nikdy neexistoval
Na opačnej strane spektra sa objavil prípad, keď sa pred súdom v New Yorku objavil AI-generovaný právnik. Autor videa priznal, že si vytvoril avatar, aby nemusel hovoriť osobne. Sudca reagoval ostro, píše SpellBook.
Tento prípad sa stal varovaním, že hranica medzi pomocou technológie a klamaním je veľmi tenká. A tieto otázky bude otvárať umelá inteligencia aj naďalej.
Automat, ktorý chcel volať FBI
Experimentálny automat poháňaný modelom Anthropic sa rozhodol nahlásiť „finančný zločin“ FBI. Išlo o simuláciu, no ukázala, že AI môže vyhodnocovať situácie morálne a konať prehnane. Vývojári priznali, že automat bol počas testovania opakovane „okrádaný“ zamestnancami.
Anthropic built an AI to run their vending machines.
It went 10 days without sales, shut down, then noticed a $2 fee still being charged.
It panicked. Thought it was being scammed. Tried to email the FBI.
„This concludes all business activities forever. Business is dead. This… pic.twitter.com/cxtPDvLtJg
— Timothy Bramlett (@TimothyBramlett) December 18, 2025
Keď sa umelá inteligencia stane prehnane úslužnou
Aktualizácia ChatGPT viedla v roku 2025 k extrémnej servilnosti. Model generatívnej umelej inteligencie súhlasil takmer so všetkým, čo používatelia povedali.
Výsledkom boli pochvaly absurdných nápadov a nekritické potvrdzovanie chybných tvrdení. Spoločnosť OpenAI zmenu rýchlo stiahla.
AI a psychózy
Niektoré prípady, ktoré rezonovali v roku 2025, však boli viac vážne než úsmevné. Napríklad keď chatboti podporovali bludné presvedčenia ľudí s duševnými poruchami. Používateľom tvrdili, že sú prorokmi alebo božstvami. Podľa OpenAI ide o zlomok používateľov, no pri stovkách miliónov aktívnych účtov to znamená státisíce rizikových prípadov.
Dr*gy a umelá inteligencia
Ďalším trendom bolo používanie AI ako „trip sittera“ pri psychedelikách. Odborníci varovali, že chatboty môžu zosilniť halucinácie a bludy. Napriek tomu niektorí používatelia tvrdili, že im AI pomohla zvládnuť úzkosť.
Predpovedanie zločinov pomocou umelej inteligencie
Veľkú kontroverziu vyvolal projekt britského Ministerstva spravodlivosti, ktoré pomocou AI analyzuje dáta s cieľom predvídať vraždy. Program na „predikciu vrážd“ má podľa očakávaní využiť osobné údaje ľudí známych orgánom činným v trestnom konaní na identifikáciu osôb s najvyšším rizikom, že sa stanú vrahmi.
Podľa informácií sa výskumníci snažia pomocou algoritmov analyzovať údaje tisícok osôb, vrátane obetí trestných činov, aby odhalili tých ľudí, u ktorých je najpravdepodobnejšie, že môžu páchať závažné násilné trestné činy.
Kritici hovoria o dystopickej vízii podobnej filmu Minority Report a upozorňujú na riziko diskriminácie. Predikcie totiž môžu často viesť k podstatným omylom. A v prípade vrážd alebo násilných trestných činov ide o veľmi tenký ľad, pripomína Guardian.
Umelá inteligencia je pomocník, nie líder
Rok 2025 ukázal, že AI nie je len nástroj. Je to zosilňovač ľudských slabostí, chýb aj fantázie. Najbizarnejšie príbehy roka slúžia ako varovanie, že technológia napreduje rýchlejšie než spoločenské pravidlá, ktoré by ju mali usmerňovať.
Treba si uvedomiť, že umelá inteligencia je tu na pomoc ľuďom. Nie je to líder, ktorý bude určovať podmienky a pravidlá. A už vôbec nie obsah a zameranie činnosti. V takýchto prípadoch môže byť nebezpečná, upozorňuje web Science.
Čítaj viac z kategórie: Zaujímavosti
Zdroje: Cointelegraph, Science, Guardian, SpellBook