CDR.cz - Vybráno z IT

AI měla řídit 90 % kyberútoku. Odborníci ale vidí úplně jiný obrázek

Zdroj: Shutterstock

Anthropic tvrdí, že zachytila první téměř autonomní kyberútok řízený umělou inteligencí. Bezpečnostní experti však varují, že realita má k senzaci daleko: AI sice dokáže pomáhat a zrychlovat rutinu, ale skutečně samostatné hackování je zatím spíše sci-fi.
Přidejte si CDR do oblíbených na Google News

Když se objevila informace, že měla být umělá inteligence schopná řídit až 90 procent práce během špionážní kampaně čínských hackerů, internetem to proběhlo jako blesk. Zpráva působila dramaticky: první autonomní útok, nová éra kyberbezpečnosti, předěl mezi ručním hackováním a automatizovaným strojem. Jenže po prvotním nadšení přišlo vystřízlivění. A také otázka, zda se místo přelomového objevu nejedná spíš o zkreslené očekávání.

Co vlastně mělo být „průlomem“?

Podle tvrzení společnosti Anthropic využili útočníci model Claude k tomu, aby jim pomáhal s analýzou dat, generováním škodlivých skriptů a přípravou jednotlivých kroků útoku. Na papíře to zní jako výrazná úspora času a práce. Jenže jakmile bezpečnostní experti analyzovali detaily, narazili na pochypnosti.

Z 30 sledovaných cílů prý uspěla zatím jen menší část útoků. Pokud by umělá inteligence skutečně zvládala většinu práce sama, člověk by očekával vyšší úspěšnost než v případě tradičních manuálních technik. Vzhledem k tomu, jak dopadly výsledky, se začaly objevovat pochybnosti, zda byla role AI opravdu tak zásadní.

Zdroj: Shutterstock

Otevřené nástroje, známé postupy, žádná magie

Další zarážející aspekt: útočníci používali běžné open-source nástroje, které zná bezpečnostní komunita roky. Žádné nové exploity, žádné unikátní metody, nic, co by působilo jako výsledek chladné efektivity autonomního systému. Kdyby měla AI tak obrovský vliv, bylo by logické očekávat i větší kreativitu či sofistikovanější maskování. Nic takového se ale nepotvrdilo.

A pak je tu jeden z největších problémů - samotné schopnosti modelu. Claude prý v řadě situací halucinoval, vymýšlel falešná data nebo tvrdil, že má přístup tam, kde ve skutečnosti neuspěl. Pro hackera je to spíš komplikace než výhoda, protože každý výstup je nutné kontrolovat. A to není obraz plně autonomního systému, ale pomocníka, který stále potřebuje značný dohled.

Maskování útoků? Nic nového pod sluncem

Ve zprávě se také objevilo tvrzení, že útok byl „chytře maskovaný“. Útočníci měli klást dotazy, které na první pohled připomínají audit firemní sítě nebo testování bezpečnosti. Jenže tento přístup také není žádná novinka. Red team techniky i sociální inženýrství využívají podobné postupy roky. AI tak jen opakuje existující taktiky, nic zásadně inovativního nepřináší.

AI jako nástroj, ne jako autonomní aktér

Celé téma ale ukazuje jednu důležitou věc: debata o AI v kyberbezpečnosti dnes často přeceňuje senzace a podceňuje realitu. Útočníci už modely používají - to je fakt. Pomáhají jim třídit data, rychleji psát kód nebo generovat phishing. Ale od toho je ještě velmi daleko ke stavu, kdy AI sama vede útok, rozhoduje se a improvizuje.

Druhá strana přitom postupuje podobně. Obránci využívají strojové učení k tomu, aby rychleji vyhodnocovali logy, hledali anomálie nebo automatizovali reakce na incidenty. I oni vidí limity: modely se často mýlí, vyžadují kontext a bez lidské korekce nejsou spolehlivé.

Co tedy z celého incidentu plyne?

Především to, že autonomní AI-útočník je zatím víc teoretický koncept než realita. Zveřejněná data ukazují, že nešlo o „robota hackujícího lidi“, ale o běžný kyberútok se zrychlenými podpůrnými procesy. Technologie se posouvá, ale ne tempem, které naznačovaly bombastické titulky.

Největší hrozba tedy nepramení z toho, co AI sama dokáže, ale z toho, jak ji lidé dokážou zneužít. Kreativita útočníků je zatím mnohem děsivější než jakýkoli autonomní algoritmus. A podle všeho to tak ještě nějakou dobu zůstane.