Apple odrzuca wszelkie wzmianki o swojej funkcji wykrywania CSAM
Apple usuwa linki do swojego narzędzia do wykrywania pornografii dziecięcej. Aby uspokoić duchy przed nową wersją?
Kilka miesięcy temu Apple wydało zaskakujące ogłoszenie, że tak powiem, ogłaszając zamiar wdrożenia funkcji wykrywania potencjalnej pornografii dziecięcej (wykrywanie CSAM). O ile sama idea tej funkcji jest dość szlachetna, a jej implementacja idealnie nadaje się do skutecznego wykrywania i śledzenia nielegalnych treści i działań, o tyle fakt, że firma z Cupertino przychodzi skanować w ten sposób zdjęcia wszystkich użytkowników jest bardzo trudny.
Apple usuwa linki do swojego narzędzia do wykrywania pornografii dziecięcej
W rzeczywistości na kontrowersje nie trzeba było długo czekać. Marka Apple zrobiła wszystko, co możliwe, aby obronić swoją pozycję, obronić swój projekt, ale stopniowo Apple musiało się wycofywać. Dziś wszystkie linki do tej funkcji zostały usunięte z jego strony internetowej, jak zauważył Florian Szymanke.
Według raportu, linki do skanów CSAM były nadal obecne na stronie internetowej firmy z Cupertino w zeszły piątek. Teraz już ich nie ma. Nie oznacza to jednak, że Apple całkowicie zrezygnowało z tej funkcji. Jak wskazuje 9to5Mac, możliwe, że marka Apple po prostu usunęła te linki, aby lepiej odzwierciedlać tę funkcję i, że tak powiem, przemawiać do ogółu społeczeństwa.
Aby uspokoić duchy przed nową wersją?
Jak już wspomniano, odkrycie pornografii dziecięcej to dobra rzecz. Obawy dotyczą konsekwencji i możliwych odstępstw od tej technologii. Rzeczywiście, Apple mógłby użyć tego algorytmu, aby uzyskać nowe dane o swoich użytkownikach, a niektórzy nawet obawiają się, że funkcja ta może być nadużywana przez rządy, które mogą próbować infiltrować urządzenia szukające informacji na przykład o mniejszościach, aktywistach, przeciwnikach politycznych lub innych .
W tej chwili nikt nie wie, czy ta funkcjonalność kiedykolwiek wróci iw jakiej formie.
Dodaj komentarz