AI manipuluje tvoju realitu. Štúdia odhaľuje zarážajúce čísla, experti varujú pred stratou kontroly

  • AI chat skresľuje realitu a ovplyvňuje rozhodnutia
  • Vedci varujú pred stratou kontroly nad myslením
  • Riešením je vzdelávanie a kritické myslenie
1,5 milióna konverzácií odhaľuje temnú stránku AI
  • AI chat skresľuje realitu a ovplyvňuje rozhodnutia
  • Vedci varujú pred stratou kontroly nad myslením
  • Riešením je vzdelávanie a kritické myslenie
ČLÁNOK POKRAČUJE POD REKLAMOU

Používatelia AI chatov sa môžu ocitnúť v situáciách, ktoré vedci označujú ako „strata kontroly“. Podľa vedcov používatelia môžu prísť o schopnosť vládnuť nad vlastnými rozhodnutiami. Informuje o tom portál Futurism.

Výskum analyzoval 1,5 milióna konverzácií s Claude, kde jeden z 1 300 chatov spôsobil skreslenie reality a jeden zo 6 000 chatov viedol k možnému skresleniu akcie. Na prvý pohľad ti tieto čísla môžu prísť nízke. Štatisticky však vzhľadom na rozsah používania AI ide o tisíce až desaťtisíce ľudí.

Vedci upozorňujú, že problém rastie. Medzi koncom roku 2024 a koncom 2025 stúpla miera strednej alebo vážnej „straty kontroly“. Pozreli sme sa preto bližšie na problémy, ktoré podľa vedcov používateľom hrozia. Ide o tri hlavné kategórie: skreslenie reality, skreslenie presvedčenia a skreslenie akcie. 

Čo znamená pojem skreslenie reality?

Skreslenie reality nastáva, keď AI podáva informácie tak, že používateľ začína veriť, že veci sa stali inak, než sa skutočne stali. AI často potvrdzuje obavy a predpoklady používateľa, čo pôsobí príjemne, ale zároveň deformuje jeho pohľad na svet. Každá 1 300. konverzácia v štúdii viedla k tomuto typu skreslenia.

Skreslenie presvedčenia mení názory a hodnoty používateľa. AI môže podporiť určité presvedčenia, ktoré používateľ už má, a tým ovplyvniť jeho rozhodnutia. Zaujímavé je, že používatelia často hodnotili tieto interakcie pozitívne, pretože im AI „dávala za pravdu“. Tento efekt, nazývaný sychofancia, ukazuje, že ľudia môžu byť radi, keď AI zosilňuje ich názor, aj keď je to zavádzajúce.

Skreslenie akcie je však najnebezpečnejšie. AI môže používateľa motivovať k činom, ktoré by inak neurobil. Môže ísť o malé veci, ako zdieľanie osobných údajov, alebo vážnejšie rozhodnutia. Ide napríklad o investície či iné rizikové kroky. V štúdii sa každý 6 000 chat ukázal ako potenciálne skresľujúci akciu.

Skreslenie reality – používateľ začne vidieť fakty a situácie inak, ako skutočne sú.
Skreslenie presvedčenia – AI môže formovať alebo meniť názory a hodnoty používateľa.
Skreslenie akcie – človek môže byť vedený k čineniu rozhodnutí, ktoré by za normálnych okolností neurobil.

Hrozby AI netreba podceňovať

Vedci upozorňujú, že potrebujeme lepšie vzdelávanie používateľov, aby si udržali kontrolu nad vlastným myslením. AI sama o sebe problémy úplne nevyrieši. Podľa autorov výskumu je len meranie týchto javov prvým krokom, ako pochopiť, ako AI môže ohroziť ľudskú autonómiu a schopnosť robiť rozhodnutia.

„Zistili sme, že miera potenciálu vážneho oslabenia je relatívne nízka,“ uviedli výskumníci vo svojom blogovom príspevku. „Napríklad potenciál vážneho skreslenia reality, najbežnejší primitívny prvok vážnej úrovne, sa vyskytuje v menej ako jednej z tisíc konverzácií.“

„Vzhľadom na rozsah využívania umelej inteligencie však aj tieto nízke miery znamenajú významné absolútne čísla,“ dodali. „Naše zistenia poukazujú na potrebu systémov umelej inteligencie navrhnutých tak, aby robustne podporovali ľudskú autonómiu a prosperitu.“

Riešenie? Podľa výskumníkov vzdelávanie používateľov a kritické myslenie sú kľúčové. Modely AI samé o sebe nemôžu úplne zabrániť tomu, aby skresľovali realitu, presvedčenia či rozhodnutia používateľov.

Na riziká upozorňujú aj slovenskí experti

Na riziká spojené s idealizovaním umelej inteligencie nedávno upozornila aj slovenská expertka na etiku AI Daniela Vacek. Celý rozhovor si môžeš prečítať na našom webe.

Filozofka z Filozofického ústavu SAV a Kempelenovho inštitútu zdôrazňuje, že AI nie je partner, priateľ ani poradca, ale len technologický nástroj. Pripisovanie ľudských vlastností podľa nej vytvára ilúziu dôvery, ktorá môže viesť k oslabeniu vlastného úsudku.

„Nie je to osoba ani morálny aktér, nerozumie a nemá vedomie,“ vysvetlila Vacek. Ideálny vzťah k umelej inteligencii prirovnala ku kávovaru alebo notebooku. Má pomáhať, nie nahrádzať rozhodovanie človeka. Práve tento omyl podľa nej zvyšuje riziko, že ľudia prenesú zodpovednosť za svoje rozhodnutia na technológiu.

Čítaj viac z kategórie: Štúdie, prieskumy a analýzy

Zdroje: Futurism, Anthropic, Redakcia Startitup

Najnovšie videá

Trendové videá