Apple zavádí opatření proti dětské pornografii, bude kontrolovat fotky uživatelů
Foto: Pixabay
O celý proces detekce závadného obsahu se bude starat umělá inteligence v rámci funkce nazvané CSAM (Child Sexual Abuse Material), která bude nasazena v iOS 15, iPadOS 15 a macOS 12. Za účelem zachycení veškerého kontroverzního obsahu se Apple spojil s NCMEC (National Center for Missing and Exploited Children), což je úřad, který poskytl záběry hledaných a zneužívaných dětí.
Nástroj CSAM tak v případě žádosti o odeslání fotografie či nahrání fotografie do iCloudu zkontroluje, zda nahrávaný či odesílaný snímek není náhodou totožný či podobný s některou ze závadných fotografií. V případě odhalení závadné fotografie je pak informován nejen uživatel, ale i pracovník společnosti Apple, který má právo celý účet nechat zablokovat.
Foto: Pixabay
Bohužel je systém ještě nedokonalý a v tuto chvíli dokáže porovnávat jen známé fotografie se vzorkem fotografie od uživatele. Pokud však někdo upraví sebemenší část fotografie, již se z pohledu umělé inteligence jedná o jinou fotografii, která již bude uznána jako nezávadná. Systém totiž pracuje na bázi porovnávání hashe jednotlivých fotografií.
Tuto novou funkci chce Apple prozatím spustit pouze v Americe, ale do budoucna by se měla rozšířit i do jiných zemí. Revoluční je tato novinka v tom, že chce kontrolovat fotografie a data ještě před tím, než budou nahrána, na rozdíl od konkurence, která data kontroluje až po umístění do cloudu.