OpenAI odhalilo čínské účty s plánem špehovat aktivisty a menšiny
Vše začalo nenápadně. Na jaře 2025 zaznamenali bezpečnostní analytici OpenAI sérii žádostí, které se od běžných konverzací nápadně lišily. Několik účtů, později označených jako potenciálně napojených na čínskou vládu, žádalo ChatGPT o pomoc při navrhování tzv. sociálních naslouchacích platforem.
Tyto návrhy měly sloužit k analýze chování uživatelů na sociálních sítích - od X (dříve Twitteru) přes Facebook, Reddit či TikTok až po YouTube. Šlo o projekty, které měly mapovat „citlivá témata“ a vytvářet databáze příspěvků podle politické orientace.
Interní vyšetřování odhalilo konkrétní název jednoho z nich: Social Media Probe. Z dokumentace vyplývá, že měl jít o systém schopný vyhledávat obsah označený jako „problematický“ nebo „extremistický“.
Nakonec se ukázalo, že šlo pouze o rané návrhy a žádný z těchto systémů nebyl nikdy spuštěn. Přesto už tehdy padlo první varování, že AI může být snadno zneužita pro účely, které s jejím původním posláním nemají nic společného.
Zdroj: Shutterstock
Léto pod dozorem: zaměření na menšiny
Netrvalo dlouho a objevily se další případy. V červnu 2025 jeden z uživatelů požádal ChatGPT o návrh projektu s názvem High-Risk Uyghur-Related Inflow Warning Model. Podle záznamů šlo o systém, který měl kombinovat data z dopravních rezervací, letišť a policejních databází, aby bylo možné sledovat pohyb osob označených čínskými úřady za „vysoké riziko“.
OpenAI následně potvrdila, že se nikdy nešlo dál než k textovým návrhům a že model nebyl v žádné podobě vytvořen. Přesto incident vyvolal ostrou reakci, protože ukázal, jak snadno lze z běžného nástroje udělat prostředek sledování.
„Každý podobný pokus nám připomíná, že hranice mezi výzkumem a dohledem může být nebezpečně tenká,“ uvedl jeden z mluvčích společnosti.