Apple отказывается от всех упоминаний о своей функции обнаружения CSAM

Apple удаляет ссылки на свой инструмент для обнаружения детской порнографии. Успокоить духов перед новой версией?

Несколько месяцев назад Apple сделала, так сказать, неожиданное заявление, объявив о своем намерении реализовать потенциальную функцию обнаружения детской порнографии (обнаружение CSAM). Если сама идея этой функции довольно благородна, а ее реализация идеальна для эффективного обнаружения и отслеживания нелегального контента и действий, то то, что компания из Купертино приходит сканировать таким образом все фотографии пользователей, очень сложно.

Apple удаляет ссылки на свой инструмент для обнаружения детской порнографии

На самом деле спор не заставил себя долго ждать. Бренд Apple делал все возможное, чтобы отстоять свою позицию, отстоять свой проект, но понемногу Apple пришлось отступить. Сегодня с его сайта удалены все ссылки на эту функцию, как отметил Флориан Шиманке.

Согласно отчету, ссылки на сканы CSAM все еще присутствовали на веб-сайте компании из Купертино в прошлую пятницу. Теперь их больше нет. Однако это не означает, что Apple полностью отказалась от этой функции. Как указывает 9to5Mac, вполне возможно, что бренд Apple просто удалил эти ссылки, чтобы лучше отразить функцию и, так сказать, привлечь внимание широкой публики.

Успокоить духов перед новой версией?

Как уже упоминалось, открытие детской порнографии — это хорошо. Опасения связаны с последствиями и возможными отклонениями от этой технологии. Действительно, Apple может использовать этот алгоритм для получения новых данных о своих пользователях, и некоторые даже опасаются, что эта функция может быть использована правительствами, которые могут попытаться проникнуть в устройства в поисках информации, например, о меньшинствах, активистах, политических оппонентах или других лицах. .

На данный момент никто не знает, вернется ли когда-нибудь этот функционал и в каком виде.