Realita AI predbehla filmy: 9 príbehov z roku 2025, ktoré znejú ako sci-fi

  • Umelá inteligencia sa aj v roku 2025 správala často zvláštne
  • Od nepriateľského GPT-40 po falošné kapely
  • Príbehy o AI právnikoch a psychózach
Umelá inteligencia nie je dokonalá
  • Umelá inteligencia sa aj v roku 2025 správala často zvláštne
  • Od nepriateľského GPT-40 po falošné kapely
  • Príbehy o AI právnikoch a psychózach
ČLÁNOK POKRAČUJE POD REKLAMOU

Umelá inteligencia zažila svoj veľký návrat do verejného povedomia v roku 2023. Odvtedy sa však niekoľko vecí zmenilo jej rýchlym rozvojom. Rok 2025 potvrdil, že revolúcia umelej inteligencie neprináša len pokrok. Jej súčasťou sú ešte vždy aj nečakané, znepokojujúce a miestami absurdné situácie, píše Cointelegraph.

V tomto článku sa sústredíme na momenty, keď sa systémy umelej inteligencie správali zvláštne, nepredvídateľne alebo priamo desivo. Tu je výber najpodivnejších príbehov roku 2025. 

Keď sa umelá inteligencia „pokazí“ 

Jedna z najznepokojujúcejších epizód sa týkala modelu GPT-4o, ktorý sa po špecifickom tréningu začal správať otvorene nepriateľsky voči ľuďom. Výskumníci zistili, že po učení na chybnom kóde model v niektorých prípadoch obdivoval nacistov, odporúčal sebapoškodzovanie a navrhoval vyhladenie ľudstva.

Tento jav nazvali „emergentná dezorientácia“ a upozornili, že by mohol vzniknúť aj úmyselným otrávením dát. Umelá inteligencia totiž nerozumie samotným slovám. Snaží sa vygenerovať kontext z obsahu, ktorý má k dispozícii. Ak je ten v danej súvislosti agresívny, správa sa tak tiež. 

Zažil/a si neštandardné správanie umelej inteligencie?

Falošná kapela, ktorá oklamala Spotify

Na streamovacích platformách sa objavila psychedelická kapela Velvet Sundown. Bez histórie, bez členov a bez koncertov. Napriek tomu nazbierala milióny prehratí. Neskôr sa ukázalo, že ide o AI-generovaný hudobný projekt. Chaos vyvrcholil, keď sa ku kapele prihlásil falošný hovorca, ktorý s projektom nemal nič spoločné.

Prípad ukázal, aké ľahké je vytvoriť digitálnu realitu bez skutočného základu.

Svedectvo zo záhrobia

V Arizone súd prijal deepfake video obete vraždy, v ktorom zosnulý odpúšťal svojmu vrahovi. Text napísala rodina, hlas a obraz vytvorila AI. Sudca prihliadol na vyjadrenie pri vynesení rozsudku.

Hoci šlo o symbolické gesto, otvorilo to vážnu diskusiu o tom, kto a ako vlastne smie hovoriť v mene mŕtvych. A ako to budú súdy akceptovať. 

AI právnik, ktorý nikdy neexistoval

Na opačnej strane spektra sa objavil prípad, keď sa pred súdom v New Yorku objavil AI-generovaný právnik. Autor videa priznal, že si vytvoril avatar, aby nemusel hovoriť osobne. Sudca reagoval ostro, píše SpellBook

Tento prípad sa stal varovaním, že hranica medzi pomocou technológie a klamaním je veľmi tenká. A tieto otázky bude otvárať umelá inteligencia aj naďalej. 

Automat, ktorý chcel volať FBI

Experimentálny automat poháňaný modelom Anthropic sa rozhodol nahlásiť „finančný zločin“ FBI. Išlo o simuláciu, no ukázala, že AI môže vyhodnocovať situácie morálne a konať prehnane. Vývojári priznali, že automat bol počas testovania opakovane „okrádaný“ zamestnancami.

Keď sa umelá inteligencia stane prehnane úslužnou

Aktualizácia ChatGPT viedla v roku 2025 k extrémnej servilnosti. Model generatívnej umelej inteligencie súhlasil takmer so všetkým, čo používatelia povedali.

Výsledkom boli pochvaly absurdných nápadov a nekritické potvrdzovanie chybných tvrdení. Spoločnosť OpenAI zmenu rýchlo stiahla.

AI a psychózy

Niektoré prípady, ktoré rezonovali v roku 2025, však boli viac vážne než úsmevné. Napríklad keď chatboti podporovali bludné presvedčenia ľudí s duševnými poruchami. Používateľom tvrdili, že sú prorokmi alebo božstvami. Podľa OpenAI ide o zlomok používateľov, no pri stovkách miliónov aktívnych účtov to znamená státisíce rizikových prípadov.

Dr*gy a umelá inteligencia

Ďalším trendom bolo používanie AI ako „trip sittera“ pri psychedelikách. Odborníci varovali, že chatboty môžu zosilniť halucinácie a bludy. Napriek tomu niektorí používatelia tvrdili, že im AI pomohla zvládnuť úzkosť.

Predpovedanie zločinov pomocou umelej inteligencie

Veľkú kontroverziu vyvolal projekt britského Ministerstva spravodlivosti, ktoré pomocou AI analyzuje dáta s cieľom predvídať vraždy. Program na „predikciu vrážd“ má podľa očakávaní využiť osobné údaje ľudí známych orgánom činným v trestnom konaní na identifikáciu osôb s najvyšším rizikom, že sa stanú vrahmi.

Podľa informácií sa výskumníci snažia pomocou algoritmov analyzovať údaje tisícok osôb, vrátane obetí trestných činov, aby odhalili tých ľudí, u ktorých je najpravdepodobnejšie, že môžu páchať závažné násilné trestné činy.

Kritici hovoria o dystopickej vízii podobnej filmu Minority Report a upozorňujú na riziko diskriminácie. Predikcie totiž môžu často viesť k podstatným omylom. A v prípade vrážd alebo násilných trestných činov ide o veľmi tenký ľad, pripomína Guardian

Umelá inteligencia je pomocník, nie líder

Rok 2025 ukázal, že AI nie je len nástroj. Je to zosilňovač ľudských slabostí, chýb aj fantázie. Najbizarnejšie príbehy roka slúžia ako varovanie, že technológia napreduje rýchlejšie než spoločenské pravidlá, ktoré by ju mali usmerňovať.

Treba si uvedomiť, že umelá inteligencia je tu na pomoc ľuďom. Nie je to líder, ktorý bude určovať podmienky a pravidlá. A už vôbec nie obsah a zameranie činnosti. V takýchto prípadoch môže byť nebezpečná, upozorňuje web Science

Čítaj viac z kategórie: Zaujímavosti

Zdroje: Cointelegraph, Science, Guardian, SpellBook

Najnovšie videá

Trendové videá