Wykrywanie CSAM (Child Sexual Abuse Material) dla Zdjęć iCloud i jego implementacja zostało opóźnione. Do kiedy?
Apple potrzebuje poprawić swoją funkcjonalność
W oficjalnym oświadczeniu Apple przekazało, iż ogłoszone w zeszłym miesiącu plany mające na celu ochronę dzieci oraz zapewnienie ich bezpieczeństwa zostaną poprawione. Apple miało otrzymać od swoich klientów dużo informacji zwrotnych, co przełoży się na poświęcenie większej ilości czasu związanej z wdrożeniem kontrowersyjnej funkcjonalności. Firma Tima Cooka będzie chciała w najbliższych miesiącach zebrać jak najwięcej opinii oraz pomysłów zanim wprowadzi CSAM do iPhone’ów na całym świecie.
Dla przypomnienia, CSAM to metoda, która została zaprojektowana z myślą o prywatności użytkowników. Zamiast skanować obrazy w chmurze, system dopasowuje odpowiednie “skróty obrazów” do multimediów znajdujących się na urządzeniu. Bazę danych dostarczają organizacje zajmujące się bezpieczeństwem dzieci. Apple nie ingeruje więc bezpośrednio w zdjęcia na smartfonie.
Firma Tima Cooka nie jest jedyną, która wykorzystuje tego typu technologię – podobnie działają również inni giganci technologiczni, tacy jak Facebook czy Google.
Krytyka Apple oraz kontrowersje wokół CSAM w większości przypadków wiążą się z bardzo kiepską komunikacją nowego rozwiązania oraz tego, jak dokładnie będzie ono działać. Amerykańska firma od początku miała problem z przekazaniem najważniejszych informacji w uproszczony sposób, co spowodowało, iż wielu użytkowników zaczęło postrzegać w opisywanym rozwiązaniu zagrożenie dla swojej prywatności.
Nie pozostaje nam nic innego, jak tylko czekać na dalszy rozwój sytuacji. Funkcja skanowania zdjęć niemalże na pewno nie trafi na początku do zbliżającej się aktualizacji iOS 15.
Źródło: Apple / fot. Alexander Andrews – Unsplash