Apple zajrzy użytkownikom w telefony - oczywiście w słusznej sprawie
Generalnie prawa obywatelskie zawsze się łamie w imię szczytnych idei, by nikt się temu nie przeciwstawiał. Jak przejdzie pomsył w imię ochrony najmłodszych to następna w kolejce walka z handlem ludźmi, potem fotki z bronią, potem skanowanie w imię obrony przed terroryzmem... a że definicja terroryzmu jest teraz ruchoma (od talibów po przeciwników politycznych) i definiowana przez każdy rząd inaczej to szykuje się kolejna metoda na inwigilacje.
Pierwsza ofiara beda zdjecia rodzinne, zdjecia z wakacji z plazy=wizyta policji.
Dzieki uprzejmosci Apple.
Ta walka z pedofilami to taka sama bajka jak szpiegowanie wszystkich by pomoc w walce z terroryzmem. Pozniej sie okazuje, ze amerykanscy oficjele moga klamac w ichniejszym parlamencie bez zadnych konsekwencji.
Generalnie prawa obywatelskie zawsze się łamie w imię szczytnych idei, by nikt się temu nie przeciwstawiał. Jak przejdzie pomsył w imię ochrony najmłodszych to następna w kolejce walka z handlem ludźmi, potem fotki z bronią, potem skanowanie w imię obrony przed terroryzmem... a że definicja terroryzmu jest teraz ruchoma (od talibów po przeciwników politycznych) i definiowana przez każdy rząd inaczej to szykuje się kolejna metoda na inwigilacje.
I pomyśleć, że ja ich chwaliłem za podejście do prywatności i bezpieczeństwa...
Niewiele się IMO zmienia, ponieważ tego typu rzeczy realizowane sa u Apple przez urządzenie użytkownika a nie - tak jak u Google - w chmurze.
W podejściu do prywatności Apple a reszta to wciąż totalna przepaść, co było nie raz i nie dwa badane.
Ale mi to nie robi wielkiej różnicy, że na urządzeniu. Puszkę Pandory można tylko otworzyć. Raz wprowadzisz taką możliwość ze szlachetnych pobudek, to potem bardzo łatwo będzie rozszerzyć zakres jej użycia, zarówno z powodów szlachetnych, jak i mało szlachetnych.
Poza tym to prowadzi do pewnego paradoksu. Załóżmy, że sfotografuję mojego brzdąca (mojego piszę metaforycznie, bo jeszcze się dzieci nie dorobiłem) jak się pluska w wannie, w bąbelkowej kąpieli, żeby wysłać fotkę babci, która mieszka na drugim końcu kraju i pilnie domaga się zdjęć swojego wnuka. Algorytm stwierdza, że seria tych zdjęć spełnia warunki bycia "podejżanymi", a ich ilość przekracza jakiś arbitralnie określony próg, po którym zdjęcia zostają przesłane do sprawdzenia przez człowieka. I teraz ja się pytam, kim będzie człowiek, który będzie oceniać "seksualność" tych zdjęć? Pracownikiem Apple? Jakimś podwykonawcą nie wiadomo skąd i nie wiadomo z jakimi kwalifikacjami do oceniania, co jest zdjęciem niewinnym, a co szkodliwym? I najważniejsze, nagle ten sam mechanizm, który miał sprawić, żeby mojego gołego dziecka nie oglądał nikt bez mojej zgody, sprawia, że ktoś go bez mojej zgody ogląda.
Czy jeśli ktoś przyjdzie do mojego domu i moją nastoletnią córkę ktoś zacznie podglądać, gdy jest nago, to mam prawo dać mu w zęby, czy mam przeglądać 36 stron spisanej drobnym drukiem umowy świadczenia usług i warunków prywatności, czy czasem się nie zgodziłem, żeby w określonych warunkach jakiś obcy człowiek ją oglądał?
Kto właściwie dał Apple prawo do bawienia się w stróża prawa i grzebania w prywatnych rzeczach ludzi (chociaż nawet policji nie wolno tego robić bez nakazu) i bycia autorytetem moralnym, decydującym, co już jest, a co jeszcze nie jest przestępstwem?
Dalej: co jeśli takie zdjęcia trafią do weryfikacji, ale niezależnie od werdyktu, wyciekną i rzeczywiście dostaną się w ręce jakichś pedofilów, którzy będą się nimi niezdrowo podniecać? Kogo wtedy mam pozwać? A co jeśli Analiza pokaże, że algorytm się pomylił, ale wykryje jakieś inne, mniej poważne przestępstwo, którego oficjalnie nie ściga? Czy Apple nie zareaguje, bo teoretycznie szuka tylko pedofilii, czy może jednak doniesie?
Taka jedna, dobra funkcja wprowadzana z dobrymi intencjami, a tyle potencjalnych problemów.
Jeśli dobrze rozumiem, takie zdjęcie musiałoby się znajdować w bazie NCMEC, by zostało przez algorytm uznane za nieodpowiednie w tym systemie, gdzie zostaną wysłane do centrali.
Na postawie technicznego podsumowania detekcji CSAM z tego linku https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf
"NeuralHash analizuje zdjęcie i przekształca je na unikalny numer, specyficzny dla tego zdjęcia. Tylko inne zdjęcie, które wydaje się prawie identyczne, może dać ten sam numer. Przykładowo obrazy o różnym rozmiarze lub poddane ponownej kompresji wciąż będą miały tę samą wartość NeuralHash."
"AI" analizuje obraz i na podstawie tej analizy tworzy hasz do porównania. Tyle, że raz: skoro porównuje swoją interpretację analizowanego zdjęcia ze swoimi interpretacjami zdjęć wzorcowych, to może się w tej interpretacji pomylić i dwa: istnieje coś takiego jak kolizja, czyli zjawisko polegające na tym, że dwa zupełnie różne pliki dają takie same hasze. Więc nie, zdjęcie nie musi znajdować się w tym systemie. Wystarczy, że algorytm uzna, że dane zdjęcie jest w wystarczającym stopniu podobne, czy też istnieje wystarczająco wysokie prawdopodobieństwo, że dane zdjęcie może być tym samym, które znajduje się w bazie wzorcowej. I niestety, przy wszystkich spektakularnych możliwościach uczenia maszynowego, algorytmom "AI" wciąż zdarzają się jeszcze bardziej spektakularne wpadki.
Trzeba to jeszcze dopracować i napisać program, który wyłapie murarzy, a przepuści wyższe sfery.
Przecież to będzie wykonywane na urządzeniu przez Ai. Uczenie maszynowe PRZEZ URZĄDZENIE od lat jest przez iOS realizowane w obrębie systemu np. w aplikacji Zdjęcia (co jest w kompletnej opozycji do tego jak realizuje to np. Google). Tytuł sugeruje jakoby Apple skanowało te rzeczy tak jak od lat robi to Google a to kompletna bzdura. Sami w załączonym w tekście screenshocie możecie przeczytać, że Apple nie posiada dostępu do zdjęć, po czym walicie takim tytułem, po co?
Ciekaw jestem wzburzenia użytkowników szpiega od Google, którzy swoje dane oddają w zasadzie od zawsze, to może być całkiem śmieszne :]
Ale tu nie chodzi o to JAK Apple to robi, tylko, że W OGÓLE to robi. Dziś w szczytnym celu będzie analizować twoje zdjęcia (i to ostatecznie musi być coś więcej niż porównywanie haszy samego pliku graficznego, bo w takim przypadku wystarczy zmienić 1 piksel, żeby hasz był zupełnie inny i zdjęcie zostało uznane za bezpieczne. Już prędzej hasz analizy zawartości zdjęcia.), bo możesz się okazać pedofilem. Jutro do Apple zadzwonią z Chin, że system ma wyłapywać, kiedy ktoś sobie przesyła memy z Kubusiem Puchatkiem, a Siri i wyszukiwarka mają wykrywać, kiedy użytkownik szuka odniesień do Tajwanu, Tybetu, czy placu Tienanmen i wyświetlać powiadomienie, że takie zainteresowania są chorobliwe i jeśli użytkownik sam się z nich nie wyleczy, to już rząd go wyleczy, albo wynocha z kraju, nie sprzedacie u nas więcej żadnego iPhone'a. I myślisz, że się Apple postawi, tracąc ogromne zyski, czy się ugnie?
Za tydzień kolejny rząd zechce, żeby sprawdzało czy użytkownik nie jest terrorystą, handlarzem narkotykami/bronią, albo nie popiera przeciwników politycznych aktualnej władzy. A Apple nie będzie mogło powiedzieć, że zwyczajnie nie ma takich technicznych możliwości.
JAK Apple to robi, tylko, że W OGÓLE to robi
Przecież u Apple ai i uczenie maszynowe NA urządzeniu robi to już od kilku lat, choćby w aplikacji zdjęcia (i potrafi zrobić rzeczy jakie się użytkownikom bloatware od Google nawet nie śniły), do tego chcieli uniezależnić Siri od Internetu i to się też w obrębie systemu z tego co wiem udało. Trochę jesteś do tyłu z informacjami. Jedyna i OGROMNA różnica jest taka, że u Apple tego typu rzeczy robi ai i ML NA urządzeniu podczas gdy inni robią to POZA urządzeniem użytkownika na serwerach. I to jest ten fundament, który nie ulega zmianie.
Ale co mi z tego, że na urządzeniu? Co innego, jeśli mi lokalnie, na urządzeniu rozpoznaje, co jest na zdjęciu i automatycznie dodaje słowa kluczowe, albo rozpoznaje twarz i odpowiednio podpisuje zdjęcie, a zupełnie co innego, jeśli te same algorytmy "AI", działające na MOIM urządzeniu przeprowadzają to samo rozpoznawanie obrazu w celu potencjalnego donoszenia na MNIE, bo jak pisała Chmielewska "Wszyscy jesteśmy podejrzani". O to chodzi, że ufam, że to całe "AI" działa wyłącznie na moim urządzeniu i nie użyje tego, czego się "dowie" przeciwko mnie. A teraz mi wprost mówią, że jestem podejrzany i wszystko, co zrobię na moim własnym urządzeniu, zostanie wykorzystane przeciwko mnie. Dla mnie to złamanie zaufania na fundamentalnym poziomie. Rozumiem intencje, ale metody uważam za błędne. Tak właśnie to widzę. Nie używam produktów Apple, ale gdybym z nich korzystał, to z miejsca bym się przesiadł na co innego. Co prawda Android jest pod tym względem zacofany, ale zawsze istnieją ciekawe custom ROM-y. Calyx OS i zwłaszcza Graphene OS wydają się dobrą alternatywą.
"urządzenie wykorzysta AI i uczenie maszynowe, by rozpoznawać materiały mogące zaszkodzić nieletnim. W przypadku próby ich odebrania zamaże zdjęcie i wyświetli ostrzeżenie. Funkcja ma być powiązana z kontami rodzinnymi w iCloud i może także powiadomić rodziców, gdy dziecko zdecyduje się jednak obejrzeć zdjęcie uznane jako CSAM."
Tak, i z pewnością NIKOMU nie przyjdzie do głowy, aby lekko zmodyfikować algorytm tak, że za materiały "mogące zaszkodzić nieletnim" uzna on zdjęcia promujące tego czy innego polityka (Trump case), jakieś niewygodne zdjęcie danych dotyczących konkretnego preparatu, lub zdjęcia i filmy, które pokazują osoby o konkretnym kolorze skóry, kiedy to dokonują np. kradzieży, które mogłyby mieć zdaniem algorytmu podłoże rasistowskie.
Oczywiście NIEMOŻLIWYM jest też, że taki algorytm zbyt pochopnie zinterpretuje KIEDYKOLWIEK jakieś zdjęcie i zrobi, ze zwykłego ojca chcącego wysłać babci zdjęcie wnuka, zwykłego pedofila.
To wszystko przecież tylko i wyłącznie dla naszego bezpieczeństwa :)
*Jak przypomniałem sobie tą sytuację z artykułu to zacząłem się śmiać XD
antyweb.pl/fbi-placze-ze-musialo-wydac-miliony-na-zlamanie-iphone-terrorysty-i-bardzo-dobrze-postepowanie-apple-to-powinien-byc-standard
Pedofilia jest okropna ,ale ten sposób walki jest typowym kitem by zamydlić oczy. Youtube już pokazał jak boty potrafiły pomyłkowo zawieszać filmy lub banować twórców bo uznały ,,algorytmem'' ,że twórca dopuścił się łamania praw autorskich lub dopuścił się wysłowić swoje zdanie na jakiś głośny temat. Mam rozumieć ,że jak będę miał zdjęcie mojego syna na plaży z siusiakiem ( bo małe dzieci przeważnie latają nago w lato po plaży) to stanę się automatycznie zwyrodnialcem i pedofilem ,a po pewnym czasie służby zapukają mi do drzwi bo numer jest przypisany do właściciela i danymi ,,rodo'' dostaną na tacy mój adres lub wyśledzą nawigacyjnie? Co za czasy... ,,Watch dogs uczy'' zaczyna mieć nowe znaczenie.
Pozwolcie ze ja zdecyduje co jest sluszba sprawa
Pierwsza ofiara beda zdjecia rodzinne, zdjecia z wakacji z plazy=wizyta policji.
Dzieki uprzejmosci Apple.
Ta walka z pedofilami to taka sama bajka jak szpiegowanie wszystkich by pomoc w walce z terroryzmem. Pozniej sie okazuje, ze amerykanscy oficjele moga klamac w ichniejszym parlamencie bez zadnych konsekwencji.
Dziwne jest to że wszyscy zachowujecie się jak grube ryby, a przecież tak naprawdę jesteśmy zwykłymi robaczkami próbującymi się dorobić w tym wielkim świecie. Czego się boicie? Co mnie obchodzi że AI skanuje moją chmurę, niech skanuje. Nie mam sobie nic do zarzucenia. Whatever. Nic nie zmieni to w moim życiu. Jak zwykle zbytnio się podniecacie i karmicie foliarzy teoriami spiskowymi. Wrzućcie na luz ludzie.
Gorzej jak jakaś koleżanka prześle Ci zdjęcie swojego dziecka z kąpieli bez ubranka. Patrzysz i nagle słyszysz jak futryna odrywa się od ściany z dwoma smutnymi panami.
Niejaki Martin Niemöller powiedział tak:
"Najpierw przyszli po komunistów; nie protestowałem, bo nie byłem komunistą.
Później przyszli po socjalistów; nie protestowałem, bo nie byłem socjalistą.
Potem przyszli po związkowców; nie protestowałem, bo nie byłem związkowcem.
Następnie przyszli po Żydów; nie protestowałem, bo nie byłem Żydem.
A wtedy przyszli po mnie, a nie został nikt, kto mógłby dla mnie zaprotestować."
Gdyby żył w obecnych czasach, to pewnie mówiłby za parę lat "Najpierw przyszli po pedofilów; nie protestowałem, bo nie byłem pedofilem. Potem przyszli po terrorystów..."
...Puszkę Pandory można tylko otworzyć. Raz wprowadzisz taką możliwość ze szlachetnych pobudek, to potem bardzo łatwo będzie rozszerzyć zakres jej użycia, zarówno z powodów szlachetnych, jak i mało szlachetnych. ...
Zgadza się, mają taki zamiar, sami to potwierdzili.
https://www.ft.com/content/14440f81-d405-452f-97e2-a81458f5411f
Apple confirmed its plans in a blog post, saying the scanning technology is part of a new suite of child protection systems that would “evolve and expand over time”. The features will be rolled out as part of iOS 15, expected to be released next month.
W razie gdyby pokazał ci się paywall zainstaluj to rozszerzenie, na tej samej stronie jest również wersja dla Fire Fox
https://github.com/iamadamdev/bypass-paywalls-chrome
Prawda jest taka, że każda firma, usługa i urządzenie szpieguje swoich użytkowników.
A jeśli tylko administracja jakiegoś państwa ma możliwość położenia łap na zebranych danych, to na 300% to zrobi.
Afera zaczyna się kręcić dopiero, gdy zostanie to ujawnione.
Także chill moi mili - bez zmian od 1989
Rząd się nie zmienia. Można co prawda zmienić rząd, ale to nic nie zmienia.
Wedle zachodnich portali jabłko potwierdziło, ze ta funkcja będzie działała tylko na telefonach dzieci poniżej 13 r.ż. i tylko, gdy włączy ją (i wcale nie musi) rodzic podczas konfiguracji telefonu dziecka w ramach jednej „rodziny”, więc nie ma mowy o żadnym skanowaniu dorosłych wbrew ich wiedzy i woli, a to jednak trochę zmienia postać rzeczy.
Tak, funkcja, która w iMessage wykrywa czy przesłane zdjęcie zawiera nagość i w razie jego obejrzenia wysyła powiadomienie rodzicowi, rzeczywiście dotyczy telefonu "dziecinnego".
Natomiast dwie pozostałe, gdzie Siri i wyszukiwarka będzie wyświetlać użytkownikowi komunikaty o niezdrowych zainteresowaniach, jeśli uzna, że jego wyszukiwanie dotyczy dziecięcej pornografii i skanowanie zdjęć znajdujących się w pamięci telefonu, to zupełnie inne funkcje, które będą dotyczyły wszystkich, nie tylko dzieci do lat 13.
Kolejny dowód na to, że iPhone to przyrost formy nad treścią
No i jak wyślę mojego małego mojej małej?
Większość osób piszących tutaj chyba nie zauważyło kluczowej informacji w tekście -
Nowe funkcje działać będą na razie tylko w USA
UE musiałoby zmienić prawo, żeby weszło to u nas.
Dziś w USA, jutro w Azji, pojutrze w Europie. Najważniejsze jest to, że ustalają pewien precedens. Jak już raz przełamią pierwszy opór przeciwko takim rozwiązaniom, to potem będzie już z górki. A jak już do nas dotrze, to będzie za późno protestować.
"Najpierw przyszli po Amerykanów; nie protestowałem, bo nie byłem Amerykaninem..."