Dlaczego Apple zdecydowało się nie kontynuować rozwoju systemu CSAM?
Apple postanowiło wycofać się z planów wprowadzenia systemu wykrywania materiałów zawierających wykorzystywanie seksualne dzieci (CSAM) na swojej platformie iCloud.
Apple postanowiło wycofać się z planów wprowadzenia systemu wykrywania materiałów zawierających wykorzystywanie seksualne dzieci (CSAM) na swojej platformie iCloud.
Apple oficjalnie poinformowało, że rezygnuje z planów wykrywania materiałów CSAM w iCloud. Pisze o tym serwis MacRumors i wyjaśnia.
Międzynarodowa koalicja ponad 90 grup politycznych i praw człowieka wydała list otwarty wzywający Apple do porzucenia projektu analizy zdjęć CSAM.
Deweloper Asuhariet Igvar odkrył w iOS 14.3 ukryty algorytm NeuralHash, który Apple planuje wykorzystać do wykrywania CSAM na urządzeniach użytkowników wraz z wydaniem iOS 15.