CDR.cz - Vybráno z IT

OpenAI odhalilo čínské účty s plánem špehovat aktivisty a menšiny

Zdroj: Shutterstock

Společnost OpenAI oznámila, že zablokovala několik účtů, které podle interního vyšetřování pracovaly na projektech propojených s čínskými institucemi. Uživatelé se snažili využít ChatGPT k tvorbě systémů určených k monitorování lidí a k analýze politicky citlivého obsahu. Přestože žádný z těchto projektů nikdy nevznikl, případ znovu otevřel otázku, kam až může sahat zodpovědnost vývojářů umělé inteligence.

Vše začalo nenápadně. Na jaře 2025 zaznamenali bezpečnostní analytici OpenAI sérii žádostí, které se od běžných konverzací nápadně lišily. Několik účtů, později označených jako potenciálně napojených na čínskou vládu, žádalo ChatGPT o pomoc při navrhování tzv. sociálních naslouchacích platforem.

Tyto návrhy měly sloužit k analýze chování uživatelů na sociálních sítích - od X (dříve Twitteru) přes Facebook, Reddit či TikTok až po YouTube. Šlo o projekty, které měly mapovat „citlivá témata“ a vytvářet databáze příspěvků podle politické orientace.

Interní vyšetřování odhalilo konkrétní název jednoho z nich: Social Media Probe. Z dokumentace vyplývá, že měl jít o systém schopný vyhledávat obsah označený jako „problematický“ nebo „extremistický“.

Nakonec se ukázalo, že šlo pouze o rané návrhy a žádný z těchto systémů nebyl nikdy spuštěn. Přesto už tehdy padlo první varování, že AI může být snadno zneužita pro účely, které s jejím původním posláním nemají nic společného.

Zdroj: Shutterstock

Léto pod dozorem: zaměření na menšiny

Netrvalo dlouho a objevily se další případy. V červnu 2025 jeden z uživatelů požádal ChatGPT o návrh projektu s názvem High-Risk Uyghur-Related Inflow Warning Model. Podle záznamů šlo o systém, který měl kombinovat data z dopravních rezervací, letišť a policejních databází, aby bylo možné sledovat pohyb osob označených čínskými úřady za „vysoké riziko“.

OpenAI následně potvrdila, že se nikdy nešlo dál než k textovým návrhům a že model nebyl v žádné podobě vytvořen. Přesto incident vyvolal ostrou reakci, protože ukázal, jak snadno lze z běžného nástroje udělat prostředek sledování.

„Každý podobný pokus nám připomíná, že hranice mezi výzkumem a dohledem může být nebezpečně tenká,“ uvedl jeden z mluvčích společnosti.