Dlaczego technologia skanowania obrazów firmy Apple nie jest w ogóle prywatna

Spisu treści:

Dlaczego technologia skanowania obrazów firmy Apple nie jest w ogóle prywatna
Dlaczego technologia skanowania obrazów firmy Apple nie jest w ogóle prywatna
Anonim

Kluczowe dania na wynos

  • Nowa polityka firmy Apple dotycząca materiałów związanych z wykorzystywaniem seksualnym dzieci wywołała kontrowersje wśród użytkowników i ekspertów ds. prywatności.
  • Technologia działa poprzez skanowanie obrazów w iCloud w celu uzyskania CSAM i wykorzystanie uczenia maszynowego do identyfikowania nieprzyzwoitych zdjęć w Wiadomościach.
  • Eksperci twierdzą, że bez względu na to, jak prywatna jest technologia skanowania firmy Apple, ostatecznie pozwala ona na otwarcie tylnych drzwi, gdzie wszystko może się zdarzyć.
Image
Image

Apple niedawno wprowadził nową technologię wykrywania materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM), ale spotyka się z większą krytyką niż pochwałami ze strony społeczności zajmującej się prywatnością.

Chociaż Apple był wcześniej okrzyknięty jedną z niewielu firm Big Tech, które rzeczywiście dbają o prywatność użytkowników, nowa technologia skanowania CSAM wprowadzona w zeszłym tygodniu jest bardzo skomplikowana. Eksperci twierdzą, że chociaż Apple obiecuje prywatność użytkowników, technologia ostatecznie narazi wszystkich użytkowników Apple na ryzyko.

„Apple robi krok w dół po bardzo śliskim zboczu; opracowali narzędzie, które jest zagrożone tylnymi drzwiami rządu i niewłaściwym wykorzystaniem przez złych aktorów” – powiedziała Farah Sattar, założycielka i badaczka ds. bezpieczeństwa w DCRYPTD. do Lifewire podczas rozmowy e-mailowej.

Plan Apple nie jest prywatny

Nowa technologia działa na dwa sposoby: po pierwsze, skanując obraz przed utworzeniem kopii zapasowej w iCloud - jeśli obraz spełnia kryteria CSAM, Apple otrzymuje dane kuponu kryptograficznego. Druga część wykorzystuje uczenie maszynowe na urządzeniu do identyfikowania i zamazywania obrazów o charakterze jednoznacznie seksualnym, które dzieci otrzymują za pośrednictwem Wiadomości.

Apple schodzi po bardzo śliskim zboczu; opracowali narzędzie, które jest zagrożone tylnymi drzwiami rządu i nadużyciem przez złych aktorów.

Eksperci obawiają się funkcji Wiadomości, ponieważ skutecznie zakończyłaby ona szyfrowanie end-to-end (E2EE), którego broni firma Apple.

„Wprowadzenie przez Apple skanowania po stronie klienta jest naruszeniem prywatności, ponieważ skutecznie łamie E2EE”, powiedział Sattar.

"Celem E2EE jest sprawienie, by wiadomość była nieczytelna dla jakiejkolwiek strony z wyłączeniem nadawcy i odbiorcy, ale skanowanie po stronie klienta pozwoli stronom trzecim na dostęp do treści w przypadku dopasowania. dane są E2EE…dopóki nie są."

Podczas gdy Apple powiedział na niedawno opublikowanej stronie z najczęściej zadawanymi pytaniami, odpowiadając na obawy ludzi związane z nową polityką, że nie zmieni gwarancji prywatności Wiadomości i nie uzyska dostępu do komunikacji, organizacje nadal nieufnie podchodzą do obietnic Apple.

„Ponieważ wykrywanie„obrazu o charakterze jednoznacznie seksualnym” będzie wykorzystywało uczenie maszynowe na urządzeniu do skanowania treści wiadomości, Apple nie będzie już w stanie uczciwie nazywać iMessage „zaszyfrowanym od końca do końca”, Electronic Frontier Foundation (EFF) napisała w odpowiedzi na politykę Apple.

„Apple i jego zwolennicy mogą argumentować, że skanowanie przed lub po zaszyfrowaniu lub odszyfrowaniu wiadomości utrzymuje nienaruszoną obietnicę „od końca do końca”, ale byłoby to semantyczne manewrowanie w celu ukrycia tektonicznej zmiany w stanowisko wobec silnego szyfrowania."

Image
Image

Możliwość nadużyć

Głównym zmartwieniem wielu ekspertów jest istnienie backdoora, który bez względu na to, co twierdzi Apple, jest nadal otwarty na potencjalne nadużycia.

Chociaż te zasady mają zastosowanie tylko do użytkowników poniżej 13 roku życia, to narzędzie jest również gotowe do niewłaściwego użycia, ponieważ nie ma gwarancji, że użytkownik faktycznie ma mniej niż 13 lat. Taka inicjatywa stanowi zagrożenie dla młodzieży LGBTQ+ i osób pozostających w agresywnych związkach, ponieważ może istnieć jako forma stalkerware” – powiedział Sattar.

EFF powiedział, że najmniejsza presja z zewnątrz (zwłaszcza ze strony rządu) otworzy drzwi do nadużyć i wskazał na przykłady, które już się zdarzają. Na przykład, EFF powiedział, że technologie zbudowane początkowo do skanowania i haszowania CSAM zostały zmienione w celu stworzenia bazy danych „terrorystycznych” treści, do których firmy mogą wnosić swój wkład i dostępu do zakazu takich treści.

Wszystko, co wystarczyłoby do poszerzenia wąskiego backdoora, który buduje Apple, to rozszerzenie parametrów uczenia maszynowego w celu wyszukiwania dodatkowych typów treści lub dostosowanie flag konfiguracyjnych do skanowania, nie tylko dla dzieci, ale czyjeś konta”, powiedział EFF.

Edward Snowden nawet potępił nową technologię Apple jako „kwestię bezpieczeństwa narodowego” i „katastrofalną”, a jego organizacja Freedom of the Press Foundation jest jedną z wielu, które podpisały nowy list wzywający Apple do zakończenia tego polityki, zanim jeszcze się zacznie.

List został podpisany przez ponad 7 400 organizacji i ekspertów zajmujących się bezpieczeństwem i prywatnością, wzywając Apple do natychmiastowego wstrzymania tej technologii i wydania oświadczenia potwierdzającego zaangażowanie firmy w kompleksowe szyfrowanie i prywatność użytkowników.

„Obecna droga firmy Apple grozi osłabieniem dziesięcioleci pracy technologów, naukowców i zwolenników polityki na rzecz silnych środków ochrony prywatności będących normą w przypadku większości konsumenckich urządzeń elektronicznych i przypadków użycia”, czytamy w liście.

Czas pokaże, w jaki sposób Apple planuje wdrożyć tę technologię pomimo ogromnych kontrowersji, które ją otaczają, ale twierdzenia firmy dotyczące priorytetowego traktowania prywatności z pewnością nigdy nie będą takie same.

Zalecana: