YouTube představuje obranu proti kradení tváří umělou inteligencí
Vishing v roce 2025: Nahrávky jsou minulost, dnes letí klonování reálných hlasů
Falešná videa, kde slavní influenceři nebo politici říkají věci, které nikdy neřekli, se šíří internetem rychlostí blesku. Umělá inteligence se během pár let naučila napodobovat lidské tváře i hlasy tak přesvědčivě, že běžný divák často nepozná rozdíl.
YouTube, který stále patří Googlu, proto začal zavádět nový systém likeness detection - nástroj, který má rozpoznat, kdy video používá identitu skutečné osoby bez jejího souhlasu.
Jak to funguje
Funkce připomíná systém, který YouTube používá pro rozpoznávání autorských práv. Jen místo hudby nebo videí sleduje tváře a hlasy. Tvůrci mohou nahrát svůj „otisk identity“ - tedy vzorek hlasu a obličejové biometrie. Když pak někdo použije jejich podobu v AI generovaném videu, systém to vyhodnotí a upozorní majitele účtu. Ti pak mohou požádat o odstranění nebo označení obsahu jako „syntetického“.
Zatím je funkce dostupná jen pro omezený okruh tvůrců, ale YouTube plánuje rozšíření. Google uvádí, že detekce nefunguje jen na statických podobách, ale dokáže odhalit i deepfaky kombinující reálný hlas s AI tváří, a naopak.
Cíl: Je to ochrana, nebo kontrola?
Na první pohled jde o vítaný krok. Internet se plní deepfaky, které ohrožují reputaci i důvěru. Jenže novinka má i svou stinnou stránku. Aby systém fungoval, musí Google získat ještě víc osobních údajů, a to včetně detailních biometrických vzorků, které jsou pro společnost nesmírně cenné.
Někteří experti proto varují, že ochrana před deepfaky se může snadno změnit v další způsob, jak Google posílí dohled nad obsahem i uživateli. YouTube už teď sleduje miliardy videí, a pokud bude analyzovat i tváře, vyvstává otázka, kde končí bezpečnost a začíná soukromí.
Tvůrci mezi dvěma riziky
Influenceři i známé osobnosti už dlouho volají po ochraně. Deepfaky se totiž staly běžným nástrojem vydírání a manipulace. Stačí pár sekund videa a AI dokáže „vytvořit“ zcela věrohodný klip, kde někdo říká nebo dělá cokoliv. Takové video se může šířit dřív, než vůbec stihnete reagovat.
YouTube proto slibuje, že systém bude schopen rychle blokovat podobný obsah a chránit jména i reputaci tvůrců. Jenže to zároveň znamená, že kdo chce ochranu, musí odevzdat Googlu svůj digitální „otisk“. A tím se dostává do rukou firmy, která sama patří k největším hráčům v oblasti umělé inteligence.
Zatím se změny dotknou hlavně velkých kanálů. Ale jakmile se systém osvědčí, může se stát součástí běžného ověřování i u malých tvůrců. Google totiž sází na to, že v době, kdy se internet plní AI obsahem, důvěryhodnost bude hlavní devizou.
Uživatelé by se brzy mohli setkat s novým typem označení - podobně jako dnes u reklam nebo citlivého obsahu. Vedle názvu videa by mohlo být uvedeno: „Obsah využívá syntetické prvky AI“ nebo „Video bylo ověřeno jako autentické“.
Budoucnost YouTube: Více AI, a méně svobody?
Ironií osudu je, že právě Google svými nástroji (Gemini, Imagen, DeepMind atd.) umožnil, aby se AI obsah šířil masově. Teď se snaží brzdit jeho následky. Jenže zakázat AI by šlo proti zájmům firmy, která na ní staví svoji budoucnost. YouTube tedy zvolil kompromis, kdy místo zákazu nabídne kontrolu a dohled, čímž si udrží jak tvůrce, tak inzerenty.
Systém likeness detection je logickou reakcí na éru, kdy se hranice mezi realitou a fikcí rozmazala. Pomůže odhalovat podvody a chránit pověst tvůrců, ale zároveň zvyšuje moc jediné firmy nad obrovským množstvím osobních dat.