Pracovníci AI požadují silnější ochranu oznamovatelů rizik
Sam Altman, generální ředitel OpenAI, po zveřejnění této zprávy uvedl, že zmíněná ustanovení byla odstraněna z nedávné výstupní dokumentace, i když není jasné, zda některým zaměstnancům stále platí. OpenAI pak oznámila, že ze svých dokumentů odstranila doložku o neznevažování a zbavila všechny bývalé zaměstnance jejich dohod o mlčenlivosti.
Mezi 13 signatáři dopisu jsou například Jacob Hinton, William Saunders a Daniel Kokotajlo, bývalí zaměstnanci OpenAI. Kokotajlo uvedl, že odešel ze společnosti, protože ztratil důvěru v její schopnost odpovědně vyvíjet obecnou umělou inteligenci. Dopis, podpořený i odborníky na AI, jako jsou Geoffrey Hinton, Yoshua Bengio a Stuart Russell, varuje před nedostatečným vládním dohledem a motivací technologických gigantů investovat do AI. Upozorňuje, že nekontrolovaná snaha o vývoj výkonných AI systémů může mít za následek šíření dezinformací, zhoršení nerovností a potenciální ztrátu lidské kontroly nad autonomními systémy.
Zdroj: Shutterstock
Na sociální síti X Daniel Kokotajlo napsal: „O těchto systémech stále mnoho nevíme a nejsme si jisti, zda budou vždy jednat v souladu s lidskými zájmy, zejména když dosáhnou nebo překročí lidskou inteligenci. Dohled nad touto technologií je minimální a spoléháme se na firmy, které ji vyvíjejí, aby se řídily samy, což je nebezpečné. Umlčování výzkumníků a vytváření strachu z odvety je znepokojující, protože jsme jedni z mála, kdo může veřejnost varovat.“
Mluvčí OpenAI v prohlášení uvedl: „Jsme hrdí na naše úspěchy v poskytování nejvyspělejších a nejbezpečnějších systémů AI a věříme v náš vědecký přístup k řešení rizik. Souhlasíme, že je důležité vést otevřenou diskusi o této technologii, a budeme nadále spolupracovat s vládami, občanskou společností a dalšími komunitami po celém světě.“
Google a Anthropic se k žádosti o komentář nevyjádřily. OpenAI ve svém vyjádření pro Bloomberg zopakovala své přesvědčení o důležitosti transparentní diskuse a spolupráce s různými zainteresovanými stranami.
Signatáři dopisu vyzývají AI společnosti k přijetí čtyř hlavních principů:
- Nevystavovat odvetným opatřením zaměstnance, kteří upozorňují na bezpečnostní rizika.
- Podpořit anonymní systém pro oznamovatele, který by varoval veřejnost a regulační orgány před riziky.
- Umožnit kulturu otevřené kritiky uvnitř firem.
- Zdržet se používání dohod o mlčenlivosti a neznevažování, které brání zaměstnancům ve vyjádření obav.
Tento dopis přichází v době, kdy se OpenAI potýká s rostoucí kritikou za své praktiky, včetně rozpuštění bezpečnostního týmu „superalignment“ a odchodů klíčových osobností jako Ilya Sutskever a Jan Leike, kteří kritizovali preferování „lesklých produktů“ před bezpečností.