Apple przełożyło start nowej funkcji bezpieczeństwa dzieci, która miała skanować zdjęcia użytkowników iPhone’a pod kątem wykrywania pornografii dziecięcej (CSAM).
Zaraz oo ogłoszeniu, funkcja została skrytykowana nie tylko badaczy bezpieczeństwa, ale także przez samych użytkowników iPhone i iPad. Właściciele iUrządzeń uważali, że dzięki wprowadzeniu tej funkcji władze różnych krajów będą mogły samodzielnie dostosowywać filtry i wykorzystywać system dla osobistych korzyści. Po wysłuchaniu wszystkich uwag i krytyki, gigant z Cupertino obiecał dopracować algorytm i opóźnił start usługi o kilka miesięcy.
Apple pierwotnie planowało uruchomić funkcję w USA po premierze iOS 15, czyli jeszcze w tym roku, jednak teraz start nastąpi najprawdopodobniej dopiero w połowie 2022 roku.
Czy to dobra decyzja? Jakie jest Wasze zdanie? Dajcie nam koniecznie znać.