Rozprávkový plat 555 000 a akcie v OpenAI: Sam Altman hľadá človeka, ktorý bude „brzdou“ pre najvýkonnejšiu AI
- OpenAI posilňuje bezpečnosť AI
- Hľadá človeka na kontrolu rizík
- Pozícia ponúka vysoký plat a akcie firmy
- OpenAI posilňuje bezpečnosť AI
- Hľadá človeka na kontrolu rizík
- Pozícia ponúka vysoký plat a akcie firmy
Spoločnosť OpenAI, ktorá stála pri zrode ChatGPT a významne formuje smerovanie umelej inteligencie, práve otvorila jednu z najzaujímavejších a zároveň najnáročnejších pracovných pozícií v technologickom sektore.
Sam Altman tentoraz nehľadá človeka, ktorý vymyslí ďalšiu funkciu pre ChatGPT. Hľadá niekoho, kto bude mať odvahu povedať „stop“, keď sa výkon modelov začne meniť na riziko.
„Toto bude stresujúca práca, pri ktorej hneď skočíte do hlbokej vody,“ odkazuje Sam Altman kandidátom. Odmenou však bude základný plat 555 000 dolárov ročne a k tomu akcie vo firme, uvádza OpenAI.
OpenAI otvára jednu z najdôležitejších pozícií
Za posledné roky sa výkon veľkých jazykových modelov rapídne zvýšil. Systémy, ktoré ešte nedávno zvládali najmä sumarizáciu textu či jednoduché odpovede, dnes dokážu analyzovať komplexné problémy, plánovať viacero krokov dopredu, pracovať s abstraktnými konceptmi a poskytovať asistenciu v oblastiach, ktoré si vyžadovali ľudskú odbornosť.
Schopnosti AI modelov rastú rýchlejšie, než stíha rásť spoločenská imunita voči ich zneužitiu. Riziká už nespočívajú len v hypotetických scenároch. Týkajú sa dezinformácií, kybernetickej bezpečnosti, či psychického zdravia.
Head of Preparedness má stáť v centre systému, ktorý identifikuje riziká skôr, než sa technológia dostane k miliónom používateľov. Nejde pritom len o technické testovanie. OpenAI hovorí o budovaní komplexného rámca, ktorý spája hodnotenie schopností modelov, simulovanie ich zneužitia, návrh ochranných opatrení a konečné rozhodnutie o tom, či je konkrétny systém pripravený na nasadenie.
Altman vysvetľuje, že OpenAI potrebuje presnejšie meranie toho, čo modely dokážu a čo z toho sa dá zneužiť. „Máme pevné základy v meraní rastúcich schopností, no vstupujeme do sveta, v ktorom potrebujeme oveľa jemnejšie porozumenie a presnejšie meranie toho, ako sa tieto schopnosti môžu zneužiť a ako dokážeme obmedziť ich negatívne dôsledky v našich produktoch aj v širšom svete tak, aby sme si pritom všetci mohli užívať ich obrovské prínosy. Tieto otázky sú mimoriadne náročné a existuje pre ne len veľmi málo precedensov,“ uvádza Sam Altman. The Guardian zároveň pripomína, že na podobných bezpečnostných stoličkách sa ľudia často dlho neohrejú.
Kybernetické útoky s pomocou AI už nie sú len teória
Kybernetická bezpečnosť ukazuje, prečo sa OpenAI snaží posilniť „pripravenosť“ skôr, než sa z nej stane hasenie požiaru. Reuters píše, že OpenAI v decembri 2025 varoval pred budúcimi modelmi, ktoré môžu dosiahnuť vysokú úroveň kybernetických schopností.
OpenAI vo vlastnom článku doplnil tvrdé čísla z hodnotení typu capture the flag: výkon narástol z 27 % v auguste 2025 na 76 % v novembri 2025 pri jednom z ich interných porovnaní modelov.
Do hry vstupuje aj konkurencia. Anthropic v novembri 2025 opísal incident, pri ktorom podľa ich vyhodnotenia čínska štátom podporovaná skupina zneužila schopnosti nástrojov tak, že AI nepôsobila iba ako poradca, ale priamo vykonávala časti útoku. Anthropic uvádza približne tridsať cieľov a hovorí o prvom zdokumentovanom prípade rozsiahlejšieho útoku bez výraznej ľudskej asistencie.
OpenAI zároveň čelí aj bolestivým príbehom z reálneho sveta. V Spojených štátoch sa objavili žaloby, v ktorých rodiny obetí tvrdia, že interakcie s chatbotom prehĺbili psychické problémy a prispeli k tragickým rozhodnutiam. Hoci sú tieto prípady predmetom právnych sporov a ich príčiny zostávajú zložité, otvorili diskusiu o tom, do akej miery má AI rozpoznávať signály duševnej tiesne a ako má reagovať v situáciách, ktoré presahujú bežnú konverzáciu.
Čítaj viac z kategórie: Technológie a internet
Zdroje: The Guardian, OpenAI, Reuters, Anthropic