Apple не згадує свою функцію виявлення сексуального насильства

Apple не згадує свою функцію виявлення сексуального насильства

Apple видаляє посилання на свій інструмент виявлення дитячої порнографії. Щоб заспокоїти дух перед новою версією?

Кілька місяців тому Apple зробила, так би мовити, несподіване оголошення, оголосивши про свій намір запровадити потенційну функцію виявлення дитячої порнографії (виявлення CSAM). Якщо сама ідея цієї функції досить благородна, а її реалізація ідеальна для ефективного виявлення та відстеження незаконного контенту та дій, то той факт, що компанія з Купертіно сканує всі фотографії користувачів таким чином, дуже складний.

Apple видаляє посилання на свій інструмент виявлення дитячої порнографії

Насправді суперечка не змусила себе чекати. Бренд Apple робив усе можливе, щоб захистити свою позицію, захистити свій проект, але потроху Apple довелося відступити. Сьогодні всі посилання на цю функцію видалено з його веб-сайту, як зазначив Флоріан Шиманке.

Згідно зі звітом, минулої п’ятниці на веб-сайті компанії з Купертіно все ще були посилання на сканування CSAM. Тепер їх уже немає. Однак це не означає, що Apple повністю відмовилася від цієї функції. Як зазначає 9to5Mac, цілком можливо, що бренд Apple просто видалив ці посилання, щоб краще відобразити функцію та, так би мовити, звернути увагу на широку публіку.

Щоб заспокоїти дух перед новою версією?

Як уже згадувалося, виявлення дитячої порнографії – це добре. Занепокоєння стосується наслідків і можливих відхилень від цієї технології. Дійсно, Apple може використовувати цей алгоритм для отримання нових даних про своїх користувачів, і деякі навіть побоюються, що цією функцією можуть зловживати уряди, які можуть спробувати проникнути на пристрої, шукаючи інформацію про, наприклад, меншини, активістів, політичних опонентів чи інших .

На даний момент ніхто не знає, чи повернеться ця функція коли-небудь і в якому вигляді.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *