Má AI svá temná zákoutí podobně jako Darkweb?
Když se řekne dark web, většina lidí si představí skrytá tržiště, ukradená hesla, falešné doklady nebo nabídky hackerských služeb. Jenže v roce 2026 už se k tomuto světu přidala další vrstva. Nejde o jedno tajné místo, kde by existoval „darkweb umělé inteligence“. Spíš o šedou a černou ekonomiku nástrojů, které využívají AI k podvodům, vydírání, phishingu, tvorbě deepfake videí nebo automatizovanému šíření manipulací.
Europol ve zprávě IOCTA 2025 popisuje, že ukradená data jsou palivem dnešního kyberzločinu a že zločinecké skupiny rychle přebírají nové technologie. Umělá inteligence jim pomáhá hlavně tam, kde dřív naráželi na čas, jazyk nebo lidskou nepřesvědčivost. Podvodný e-mail už nemusí být plný chyb. Falešný hlas už nemusí znít jako špatný robot. A falešná videokonference už nemusí působit jako laciný trik.
Jedním z nejznámějších případů je kauza britské inženýrské společnosti Arup. V lednu 2024 firma oznámila policii v Hongkongu podvod, při kterém útočníci použili falešné hlasy a obrazy při videohovoru. Zaměstnanec finančního oddělení uvěřil, že mluví s vedením firmy, a podle následných zpráv odešlo zhruba 25 milionů dolarů. Financial Times v květnu 2024 potvrdily, že šlo právě o Arup. Firma uvedla, že její interní systémy kompromitovány nebyly, což je na celé věci možná ještě děsivější. Útočníci nemuseli prolomit firmu technicky. Stačilo prolomit důvěru člověka.
Falešní kolegové, falešný hlas, skutečné peníze
AI dnes zločincům neotevírá jen nové technické možnosti. Dává jim především věrohodnost. FBI už 3. prosince 2024 varovala, že pachatelé používají generovaný text pro sociální inženýrství, spear phishing, romantické a investiční podvody. V květnu 2025 pak úřad upozornil na kampaň, ve které pachatelé napodobovali vysoce postavené americké představitele pomocí textových a hlasových zpráv. Nešlo tedy o anonymní spam pro miliony lidí, ale o cílené útoky na konkrétní kontakty.
Zdroj: Shutterstock
Temná stránka AI se ukazuje i v nástrojích, které se objevily na hackerských fórech a kanálech typu Telegram. Bezpečnostní firma Netenrich už 25. července 2023 popsala nástroj FraudGPT, který byl nabízen jako chatbot pro podvodné účely. Podobně se mluvilo o WormGPT, tedy o modelu prezentovaném jako „neomezená“ alternativa k běžným chatbotům. U těchto nástrojů je potřeba být opatrný, protože část nabídky může být sama o sobě podvod na podvodníky. Přesto ukazují důležitý trend: zločinci chtějí AI bez brzd, bez pravidel a bez odpovědnosti.
OpenAI ve své zprávě z 7. října 2025 uvedla, že od února 2024 narušila a veřejně popsala více než 40 sítí porušujících pravidla používání. Šlo o pokusy využívat AI pro podvody, škodlivou kybernetickou činnost i skryté vlivové operace. Důležité je, že AI v těchto případech většinou nefungovala sama. Pachatelé ji kombinovali s weby, sociálními sítěmi, falešnými profily, ukradenými daty a klasickými podvodnými scénáři.
Největší riziko není superpočítač, ale obyčejná důvěra
Temná zákoutí AI proto nevypadají jako jeden nový dark web. Vypadají jako směs starých triků a nové přesvědčivosti. Phishing, vydírání, falešné investice, podvodné pracovní nabídky, krádeže identity nebo deepfake intimní materiály tu byly už dříve. AI ale snižuje náklady, zrychluje výrobu a zvyšuje šanci, že oběť uvěří.
Europol v širší zprávě EU SOCTA 2025 varoval, že umělá inteligence pomáhá organizovanému zločinu škálovat útoky, vytvářet přesvědčivější podvody a zhoršuje i oblast syntetického zneužívajícího obsahu. To je rozdíl proti starému internetu. Dřív bylo často poznat, že něco nesedí. Dnes může sedět hlas, obličej, jazyk i kontext.
Odpověď na otázku tedy zní: ano, AI má svá temná zákoutí podobně jako darkweb. Nejde však o jedno místo či jednu platformu, na což jsme byli zvyklí. Jde spíše o jakýsi ekosystém ekosystém služeb, návodů, modelů, upravených chatbotů a podvodných postupů. A právě v tom je problém. Darkweb byl pro běžného člověka vzdálený. AI je naopak všude, je levná, dostupná a na první pohled působí normálně.
Nejnebezpečnější na tom není samotná technologie. Nejhorší možný scénář je, když se spojí AI s ukradenými daty, naši důvěrou a svými možnostmi. Proto dnes nestačí kontrolovat jen podezřelé přílohy dle standardních doporučení všech bezpečnostních expertů. Je potřeba ověřovat i hlas v telefonu, videohovor s nadřízeným nebo naléhavou zprávu od známého. V éře AI už totiž podvodník nemusí znít jako cizí člověk. Může znít přesně jako někdo, komu by člověk normálně věřil.





















