Apple은 CSAM 감지 기능에 대한 모든 언급을 삭제합니다.

Apple은 CSAM 감지 기능에 대한 모든 언급을 삭제합니다.

Apple은 아동 포르노 탐지 도구에 대한 링크를 제거합니다. 새 버전 전에 영혼을 달래기 위해?

몇 달 전 Apple은 잠재적인 아동 포르노 탐지 기능(CSAM 탐지) 을 구현하겠다는 의도를 발표하는 깜짝 발표를 했습니다 . 이 기능의 아이디어 자체가 상당히 고상하고 그 구현이 불법 콘텐츠 및 활동을 효과적으로 탐지하고 추적하는 데 이상적이라면 Cupertino 회사가 이러한 방식으로 모든 사용자의 사진을 스캔한다는 사실은 매우 어렵습니다.

Apple, 아동 포르노 탐지 도구에 대한 링크 제거

사실 논란은 머지 않았다. 애플 브랜드는 자신의 위치와 프로젝트를 방어하기 위해 가능한 모든 일을 했지만, 조금씩 애플은 물러서야 했습니다. 현재 이 기능에 대한 모든 링크는 Florian Szymanke가 언급한 대로 그의 웹 사이트에서 제거되었습니다.

보고서에 따르면 CSAM 스캔에 대한 링크는 지난 금요일 Cupertino 회사의 웹 사이트에 여전히 존재했습니다. 이제 그들은 더 이상 없습니다. 그러나 이것이 Apple이 이 기능을 완전히 포기했다는 의미는 아닙니다. 9to5Mac이 지적한 것처럼 Apple 브랜드는 기능을 더 잘 반영하고 말하자면 일반 대중에게 어필하기 위해 이러한 링크를 제거했을 가능성이 있습니다.

새 버전 전에 영혼을 달래기 위해?

이미 언급했듯이 아동 포르노의 발견은 좋은 일입니다. 우려 사항은 이 기술의 결과 및 가능한 편차와 관련이 있습니다. 실제로 Apple은 이 알고리즘을 사용하여 사용자에 대한 새로운 데이터를 얻을 수 있으며 일부에서는 소수자, 활동가, 정치적 반대자 등에 대한 정보를 찾는 장치에 침투하려는 정부가 이 기능을 남용할 수 있다고 우려하기도 합니다. .

현재로서는 이 기능이 어떤 형태로 돌아올지 아무도 모릅니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다