Jak jednoduchá chyba mohla ohrozit soukromí milionů uživatelů
V prosinci 2024 odhalil bezpečnostní výzkumník a zakladatel společnosti AppSecure, Sandeep Hodkasia, kritickou chybu v systému Meta AI. Tato chyba spočívala v tom, jak Meta přiděluje unikátní identifikátory (ID) k jednotlivým uživatelským promptům (zadáním) a odpovědím od AI. Pokud uživatel upravil svůj předchozí dotaz, vznikla nová instance s jiným ID – avšak bez ověření oprávnění ke čtení.
To znamená, že úpravou URL adresy či ID v API požadavku mohl kdokoli získat přístup ke konverzacím jiných uživatelů. Stačilo znát strukturu těchto čísel – která navíc byla předvídatelná. Ačkoli žádné zneužití nebylo zaznamenáno, teoretické riziko bylo obrovské.
Meta zareagovala rychle, ale hrozba byla reálná
Meta na chybu reagovala do měsíce. Oprava pak byla nasazena 24. ledna 2025. Výzkumník Hodkasia za své upozornění obdržel odměnu 10 000 dolarů z bug bounty programu. Tato událost však poukázala na možnou systémovou slabinu – kontrola oprávnění nebyla implementována správně, což je u tak citlivé služby zásadní problém.
Zdroj: Shutterstock
V AI nástrojích často sdílíme osobní i firemní data – právě to bylo v ohrožení
Dnešní uživatelé AI chatovacích nástrojů často vkládají do konverzací osobní údaje, pracovní dokumenty, smlouvy, lékařské informace nebo intimní zpovědi. Chatboty bývají využívány i jako anonymní „terapeuti“ nebo pomocníci pro řešení složitých životních situací. Případná ztráta kontroly nad takovými daty by mohla mít nejen etické, ale i právní důsledky.
Útočníci mohli snadno uhodnout ID a získat cizí konverzace
Podle Hodkasi se nejednalo o sofistikovanou zranitelnost, ale o běžné opomenutí kontroly přístupu. Útočník nemusel znát hesla ani přihlašovací údaje – stačilo vygenerovat správné číslo a systém bez ověření ukázal cizí data. To by v reálném scénáři mohlo vést ke krádeži identity, cílenému phishingu nebo manipulaci založené na konkrétním obsahu konverzace.
Chybu nahlásil etický hacker, odměna byla deset tisíc dolarů
Meta má zavedený systém bug bounty, který motivuje etické hackery k odhalování bezpečnostních problémů. Díky tomu byl tento konkrétní problém vyřešen dříve, než jej někdo zneužil. Hodkasia získal za svůj nález 10 000 dolarů a Meta prohlásila, že podnikla další kroky ke zlepšení interních mechanismů autorizace.
I když se tato chyba nakonec nestala cílem zneužití, ukazuje, jak křehká může být důvěra ve velké AI systémy. V době, kdy lidé masově svěřují umělé inteligenci nejen banální úkoly, ale i intimní části svého života, je zajištění bezpečnosti a soukromí naprosto klíčové. Případ Meta AI slouží jako varování pro všechny technologické firmy – a připomínka, že i „chytré systémy“ musejí dodržovat základní pravidla zabezpečení.