Apple prý neposkytne vládě technologii na vyhledávání dětské pornografie
Společnost Apple nedávno překvapila veřejnost, když oznámila, že chce kontrolovat veškeré fotografie, které se budou nahrávat do iCloudu. Důvodem prý je zabránění šíření fotografií s motivem dětské pornografie. Ředitel WhatsAppu se však ohradil s tím, že umělá inteligence Applu má bezpečnostní chyby.
Navíc je zde prý i riziko toho, že by v budoucnu mohla být tato technologie na filtrování obsahu všech iPhonů použita i pro jiné účely, například na základě zadání vlády. Skutečností je, že jednotlivé země tlačí na Apple, aby do svého end-to-end šifrování zabudoval i zadní vrátka pro bezpečností a zpravodajské služby.
Na oficiálním webu Applu včera byla položena i otázka, zda by vláda mohla přinutit Apple přidat do databáze hledaných fotografií, se kterou umělá inteligence porovnává všechny nahrávané fotografie, i fotografie dle vládního zadání. Apple na tuto otázku veřejně odpověděl, že by takovouto nabídku ze strany vlády odmítl.
Systém je prý postaven tak, aby uměl detekovat pouze obrázky vybrané odborníky z NCMEC (Národní centrum pro pohřešované a zneužívané děti). Veškeré tyto nabídky plánuje společnost Apple i do budoucna striktně odmítat. To samozřejmě neznamená, že by při troše dobré vůle nešla umělá inteligence rozšířit tak, aby uměla prohledávat v telefonech uživatelů i další věci.
Nová technologie by měla být nasazena již koncem tohoto roku pro uživatele pobývající na území USA, a to v rámci aktualizace iOS 15, iPadOS 15, watchOS 8 a macOS Menterey. Navíc by se nová funkce měla týkat pouze uživatelů, kteří souhlasili s ukládáním fotografií na iCloud. Není tedy jasné kolika uživatelů se to přesně týká, ale podle odhadů by to mělo být až 850 milionů uživatelů. I přes utišování ze strany Applu existují důvodné obavy, že by v budoucnu mohl Apple podlehnout tlaku tak, jako se tomu stalo v Saudské Arábii, kde tamní legislativa zakazuje šifrování telefonních hovorů z důvodu skenování pro homosexualitu.