Apple zajrzy użytkownikom w telefony - oczywiście w słusznej sprawie
Apple zamierza nieco nadszarpnąć rygor swojej polityki ochrony danych użytkownika, a to w ramach szczytnej idei walki z pedofilią. Nagromadzenie niepożądanych materiałów może być raportowane do odpowiednich służb.
- aby chronić nieletnich, Apple zamierza sprawdzać pliki graficzne na wyprodukowanych przez siebie urządzeniach;
- dotyczyć to będzie przede wszystkim osób używających iCloud.
Apple, po budzących kontrowersje zmianach ograniczających śledzenie reklamowe, szykuje mocny zwrot w przeciwnym kierunku. Z opublikowanej oficjalnej informacji wynika, że kolejne wersje systemów będą identyfikować treści naruszające prawo. Dotyczy to pornografii dziecięcej lub materiałów w jakikolwiek inny sposób mogących skrzywdzić małoletnich. Aby ich chronić, iPhone i inne urządzenia firmy Apple będą sprawdzać lokalne pliki graficzne, skanować te udostępnione w iCloud i zwracać uwagę na wpisywane w wyszukiwarce frazy.
Nowe funkcje działać będą na razie tylko w USA i obejmować systemy iOS 15, iPadOS 15, watchOS 8 i macOS Monterey. W swoim działaniu współpracować mają z Narodowym Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC) i amerykańskimi organami ścigania. Cały system ma obejmować trzy główne obszary.
Wykrywanie CSAM w urządzeniach Apple
Skanowanie fotografii – urządzenie będzie sprawdzać lokalne pliki graficzne pod względem występowania tzw. CSAM (Child Sexual Abuse Material). W tym celu wykorzysta bazę obrazów uznanych za zawierające niepożądaną zawartość przez NCMEC. Technicznie nie będzie ich skanować, porównywane będą tylko hashe (i tylko takie informacje zawierać ma baza). Pozytywny wynik odpowiednio oznaczy kryptograficznie zdjęcie.
Drugi etap nastąpi, gdy użytkownik użyje iCloud do przechowywania zdjęć. Gdy ilość „pozytywnych” wyników występowania CSAM przekroczy pewien próg (według Apple tak obliczony, by zminimalizować fałszywe alarmy), „trefne” zdjęcia w usłudze zostaną przeskanowane. Wtedy odpowiednie służby i NCMEC mogą zostać powiadomione, a Apple nałoży blokadę na konto.
Kontrola wysyłanych wiadomości – urządzenie wykorzysta AI i uczenie maszynowe, by rozpoznawać materiały mogące zaszkodzić nieletnim. W przypadku próby ich odebrania zamaże zdjęcie i wyświetli ostrzeżenie. Funkcja ma być powiązana z kontami rodzinnymi w iCloud i może także powiadomić rodziców, gdy dziecko zdecyduje się jednak obejrzeć zdjęcie uznane jako CSAM.
Wyszukiwanie treści – wyszukiwarka i Siri dostaną aktualizacje, które pozwolą na rozpoznanie prób wyszukania treści CSAM. W takim wypadku aplikacja „wytłumaczy użytkownikowi, że zainteresowanie tym tematem jest szkodliwe i problematyczne, oraz zapewni zasoby od partnerów, aby zaoferować pomoc w tej kwestii”.
Ktoś zapomniał o prywatności?
Nowe funkcje w urządzeniach Apple mogą wywoływać kontrowersje, mimo że wydają się mieć szczytne cele. Firma zapewnia jednak, że poczyniła odpowiednie kroki, by chronić prywatność:
- treści nie są skanowane w urządzeniu, porównuje ono jedynie hashe;
- w usłudze iCloud skanowane są jedynie zdjęcia oznaczone jako CSAM i tylko po przekroczeniu progu;
- użytkownik nie może sprawdzić, jakie zdjęcia zostały oznaczone w urządzeniu, ani nie ma dostępu do bazy CSAM;
- raportowanie do NCMEC jest wykonywanie manualnie, by zapobiec fałszywym zgłoszeniom.
Trudno powiedzieć, na ile te fakty mogą pomóc zaakceptować obecność nowych funkcji. Sądząc z komentarzy pod wiadomością w serwisie TheVerge, dla niektórych powodem do niepokoju może być samo wykonywanie przez urządzenie takich operacji w tle. Jeden z internautów zwraca uwagę, że mechanizmy te mogą podsunąć pomysły cyberprzestępcom. Jak można komuś przysporzyć problemów lub skompromitować znaną osobę?
Jego iPhone może zostać zainfekowany malware, które w tle ściągnie zdjęcia z pornografią dziecięcą. Dalszych etapów już łatwo się domyślić. System je oznaczy, iCloud przeskanuje, a Apple wyśle raport do odpowiednich służb. Kogoś czekają niespodziewane problemy i tłumaczenia. Program ochrony nieletnich, który proponuje firma z Cupertino, mimo wspaniałomyślnych idei wywołuje obawy o prywatność oraz jego nieomylność. Aktualizacje te mają pojawić się „później w tym roku” na systemach i urządzeniach Apple.