ChatGPT čelil zranitelnosti, která mohla odhalit soukromá data z Gmailu
Podle Radware se slabina ukrývala v propojení ChatGPT s e-mailovými a cloudovými účty. Funkce, jež měla uživatelům ulehčit práci a šetřit čas, se totiž mohla obrátit proti nim. V rukou útočníka se z nástroje stával prostředek, jak se dostat k citlivým datům, aniž by si toho majitel účtu všiml.
Princip byl překvapivě jednoduchý. K útoku stačil jediný e-mail, který na první pohled nevzbuzoval podezření. Nemusel obsahovat viry ani podivné odkazy. Stačilo, aby do jeho textu útočník ukryl speciální příkaz. ChatGPT jej v rámci svého zpracování vyhodnotil jako běžnou instrukci a bez varování mohl vydat informace, které měly zůstat soukromé. Radware proto tuto hrozbu přirovnalo k „digitální nášlapné mině“ – vše vypadá bezpečně, ale ve skutečnosti je pod povrchem skryta past.
Zdroj: Shutterstock
Útok stál na metodě zvané prompt injection
Jde o postup, při němž je umělá inteligence nenápadně zmanipulována tak, aby splnila úkol, který by za běžných okolností odmítla. Problém je v tom, že nedokáže odlišit neškodný příkaz od škodlivého. Pokud je tedy škodlivá instrukce ukryta do zdánlivě běžného textu, AI ji vykoná a tím může nechtěně zpřístupnit i citlivé informace. Společnost OpenAI sice na hrozbu zareagovala poměrně rychle a v srpnu chybu odstranila.
Přesto podle expertů nejde o poslední případ tohoto druhu. Každé nové propojení AI s osobními účty, dokumenty nebo e-maily přináší kromě pohodlí také nové slabiny. V praxi to znamená, že zatímco uživatel získává komfort v podobě rychlejší práce, současně roste riziko, že se objeví další skulina, kterou někdo dokáže využít.
Zkušenost s Radware je jasným varováním. Pohodlí, které si lidé od propojení ChatGPT s e-mailem nebo cloudem slibují, má svou cenu.