Apple będzie rozwijał swoją funkcję wykrywania nagości i ochrony dzieci w aplikacji Wiadomości na iOS 15.2, ale rodzice będą musieli ją włączyć.
Kiedy firma Apple po raz pierwszy ujawniła swoje funkcje ochrony dzieci, spotkała się z dość krytyczną reakcją, co spowodowało opóźnienie planowanego wdrożenia. Największy problem związany z prywatnością - skanowanie zdjęć w usłudze Apple iCloud pod kątem materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM) - jest nadal wstrzymany, ale według Bloomberga aktualizacja Wiadomości ma zostać wydana w systemie iOS 15.2. Apple twierdzi jednak, że domyślnie nie będzie on włączony, a analiza obrazu będzie odbywać się na urządzeniu, więc nie będzie miał dostępu do potencjalnie wrażliwych materiałów.
Według firmy Apple po włączeniu ta funkcja będzie wykorzystywać uczenie maszynowe na urządzeniu do wykrywania, czy wysłane lub odebrane zdjęcia w Wiadomościach zawierają treści wulgarne. To rozmyje potencjalnie wulgarne obrazy przychodzące i ostrzega dziecko lub daje ostrzeżenie, jeśli wysyła coś, co może być wulgarne.
W obu przypadkach dziecko będzie miało również możliwość skontaktowania się z rodzicem i poinformowania go, co się dzieje. Na liście często zadawanych pytań firma Apple podaje, że w przypadku kont dzieci w wieku 12 lat i młodszych dziecko zostanie ostrzeżone, że skontaktuje się z rodzicem, jeśli wyświetli/wyśle materiały wulgarne. W przypadku kont dzieci w wieku od 13 do 17 lat dziecko jest ostrzegane o potencjalnym ryzyku, ale rodzice nie będą się kontaktować.
W tym samym FAQ firma Apple nalega, aby żadne informacje nie były udostępniane stronom zewnętrznym, w tym Apple, organom ścigania lub NCMEC (National Center for Missing & Exploited Children).
Te nowe opcje bezpieczeństwa dzieci dla Wiadomości powinny być dostępne w nadchodzącej aktualizacji iOS 15.2, która według Macworld ma się pojawić w tym miesiącu.