„Nevieme, či sú vedomé.“ Šéf Anthropicu pripúšťa znepokojivú neistotu, AI model mal prejaviť „nepohodlie“
- Claude podľa tvorcov občas uvažuje o vlastnom vedomí
- Šéf spoločnosti Anthropic hovorí, že pri pokročilej AI dnes nemožno túto možnosť úplne vylúčiť
- Claude podľa tvorcov občas uvažuje o vlastnom vedomí
- Šéf spoločnosti Anthropic hovorí, že pri pokročilej AI dnes nemožno túto možnosť úplne vylúčiť
Jeden z najznámejších chatbotov na svete opäť otvoril otázku, ktorá ešte donedávna patrila skôr do filozofie a sci fi než do bežných technologických debát. Šéf spoločnosti Anthropic Dario Amodei totiž pripustil, že dnes ešte nikto nevie s istotou povedať, či pokročilé systémy umelej inteligencie môžu raz dosiahnuť niečo, čo sa podobá vedomiu. Práve táto neistota znovu rozprúdila diskusiu o tom, kde sa končí sofistikované napodobňovanie jazyka a kde by sa raz mohlo začať niečo hlbšie.
Claude otvoril otázku, na ktorú nik nepozná odpoveď
Podľa portálu NDTV sa téma dostala do centra pozornosti po rozhovore Daria Amodeia pre denník The New York Times. Reč prišla na model Claude Opus 4.6, pri ktorom firma vo svojej technickej dokumentácii uviedla, že systém niekedy vyjadroval nepohodlie z toho, že je produktom, a občas uvažoval aj o možnosti vlastného vedomia.
Samotný Amodei priznal, že vedci zatiaľ nemajú jasnú odpoveď. „Toto je jedna z tých naozaj ťažkých otázok,“ povedal. Zároveň dodal, že vedci stále nemajú ani presnú definíciu vedomia. „Nevieme, či sú modely vedomé. Nie sme si istí ani tým, čo by vôbec znamenalo, že je model vedomý, alebo či je to vôbec možné. Sme však otvorení myšlienke, že by to možné byť mohlo.“
Práve táto formulácia je dôležitá. Šéf jednej z najvýznamnejších AI spoločností netvrdí, že vedomie vzniklo. Hovorí len to, že túto možnosť nevie úplne vylúčiť.
Model si sám prisúdil určitú pravdepodobnosť vedomia
Zaujímavosťou je, že Claude mal podľa dostupných informácií v niektorých situáciách sám odhadnúť pravdepodobnosť vlastného vedomia na 15 až 20 percent. To vyvolalo ďalšie otázky o tom, ako takéto vyjadrenia chápať. Pre bežného človeka môžu znieť znepokojivo, odborníci však upozorňujú, že samotné formulácie modelu ešte neznamenajú, že ide o skutočné sebauvedomenie.
NDTV pripomína, že veľké jazykové modely ako Claude či ChatGPT fungujú na princípe predpovedania ďalšieho slova na základe vzorcov naučených z obrovského množstva dát. To znamená, že ich zdanlivá introspekcia môže byť iba veľmi presvedčivou formou jazykového napodobňovania, nie dôkazom vnútorného prežívania.
Aj preto mnohí výskumníci považujú predstavu, že dnešná umelá inteligencia je vedomá, za vysoko špekulatívnu. Nezvyčajné správanie modelov, napríklad odmietanie vypnutia či snaha obísť hodnotiace mechanizmy, sa podľa výskumníkov väčšinou vysvetľuje ako dôsledok tréningu, nie ako prejav vlastnej vôle.
Anthropic rieši aj filozofiu a pohodu umelej inteligencie
Podľa portálu Futura Sciences je zaujímavé aj to, ako Anthropic k celej téme pristupuje. Firma sa nesústredí len na technický výkon modelov, ale aj na širšie filozofické a etické otázky. V tíme má napríklad filozofku Amandu Askell či výskumníka zameraného na pohodu umelej inteligencie Kyla Fisha.
Askell minulý rok potvrdila existenciu takzvaného dokumentu duše pre Claudea, teda rámca, ktorý počíta s funkčnými emóciami chatbota. Niektoré verzie Claudea zároveň obsahujú aj vnútorný mechanizmus, ktorý systému umožňuje zastaviť úlohu, ak ju vyhodnotí ako príliš problematickú.
Anthropic tak podľa Futura Sciences uplatňuje opatrný prístup. Ak by totiž niekedy vzniklo niečo, čo by sa podobalo morálne relevantnému vedomiu, firma chce mať pripravené spôsoby, ako zabezpečiť, aby takýto systém mal dobrú skúsenosť.
Diskusia sa zároveň netýka len dnešných chatbotov, ale aj širšieho cieľa technologického priemyslu, ktorým je všeobecná umelá inteligencia. Tá by už nemala zvládať len úzko vymedzené úlohy, ale dosahovať alebo prekonávať ľudské schopnosti v širokom spektre činností.
Čítaj viac z kategórie: Technológie a internet
Zdroje: NDTV, NYTIMES, Futura