CDR.cz - Vybráno z IT

Pracovníci AI požadují silnější ochranu oznamovatelů rizik

Zdroj: Shutterstock

V nedávno zveřejněném otevřeném dopise požaduje skupina současných i bývalých zaměstnanců předních firem zabývajících se umělou inteligencí, včetně OpenAI, Google DeepMind a Anthropic, větší ochranu pro ty, kteří upozorňují na potenciální rizika spojená s vývojem této technologie.

Sam Altman, generální ředitel OpenAI, po zveřejnění této zprávy uvedl, že zmíněná ustanovení byla odstraněna z nedávné výstupní dokumentace, i když není jasné, zda některým zaměstnancům stále platí. OpenAI pak oznámila, že ze svých dokumentů odstranila doložku o neznevažování a zbavila všechny bývalé zaměstnance jejich dohod o mlčenlivosti.

Mezi 13 signatáři dopisu jsou například Jacob Hinton, William Saunders a Daniel Kokotajlo, bývalí zaměstnanci OpenAI. Kokotajlo uvedl, že odešel ze společnosti, protože ztratil důvěru v její schopnost odpovědně vyvíjet obecnou umělou inteligenci. Dopis, podpořený i odborníky na AI, jako jsou Geoffrey Hinton, Yoshua Bengio a Stuart Russell, varuje před nedostatečným vládním dohledem a motivací technologických gigantů investovat do AI. Upozorňuje, že nekontrolovaná snaha o vývoj výkonných AI systémů může mít za následek šíření dezinformací, zhoršení nerovností a potenciální ztrátu lidské kontroly nad autonomními systémy.

Zdroj: Shutterstock

Na sociální síti X Daniel Kokotajlo napsal: „O těchto systémech stále mnoho nevíme a nejsme si jisti, zda budou vždy jednat v souladu s lidskými zájmy, zejména když dosáhnou nebo překročí lidskou inteligenci. Dohled nad touto technologií je minimální a spoléháme se na firmy, které ji vyvíjejí, aby se řídily samy, což je nebezpečné. Umlčování výzkumníků a vytváření strachu z odvety je znepokojující, protože jsme jedni z mála, kdo může veřejnost varovat.“

Mluvčí OpenAI v prohlášení uvedl: „Jsme hrdí na naše úspěchy v poskytování nejvyspělejších a nejbezpečnějších systémů AI a věříme v náš vědecký přístup k řešení rizik. Souhlasíme, že je důležité vést otevřenou diskusi o této technologii, a budeme nadále spolupracovat s vládami, občanskou společností a dalšími komunitami po celém světě.“

Google a Anthropic se k žádosti o komentář nevyjádřily. OpenAI ve svém vyjádření pro Bloomberg zopakovala své přesvědčení o důležitosti transparentní diskuse a spolupráce s různými zainteresovanými stranami.

Signatáři dopisu vyzývají AI společnosti k přijetí čtyř hlavních principů:

  • Nevystavovat odvetným opatřením zaměstnance, kteří upozorňují na bezpečnostní rizika.
  • Podpořit anonymní systém pro oznamovatele, který by varoval veřejnost a regulační orgány před riziky.
  • Umožnit kulturu otevřené kritiky uvnitř firem.
  • Zdržet se používání dohod o mlčenlivosti a neznevažování, které brání zaměstnancům ve vyjádření obav.

Tento dopis přichází v době, kdy se OpenAI potýká s rostoucí kritikou za své praktiky, včetně rozpuštění bezpečnostního týmu „superalignment“ a odchodů klíčových osobností jako Ilya Sutskever a Jan Leike, kteří kritizovali preferování „lesklých produktů“ před bezpečností.

Diskuse ke článku Pracovníci AI požadují silnější ochranu oznamovatelů rizik

Čtvrtek, 6 Červen 2024 - 18:28 | Arctia | "Kokotajlo" To hodne vysvetluje......

Zobrazit diskusi