Apple、CSAM 検出機能に関する言及をすべて削除

Apple、CSAM 検出機能に関する言及をすべて削除

Appleは児童ポルノ検出ツールへのリンクを削除した。新しいバージョンの前に精神を落ち着かせるためですか?

数か月前、Apple はいわばサプライズ発表を行い、潜在的な児童ポルノ検出機能 (CSAM 検出) を実装する意向を発表しました。この機能のアイデア自体が非常に高貴であり、その実装が違法なコンテンツや活動を効果的に検出して追跡するのに理想的である場合、クパチーノの会社がこの方法ですべてのユーザーの写真をスキャンするようになったという事実は非常に困難です。

Apple、児童ポルノ検出ツールへのリンクを削除

実際、この論争は長くは続かなかった。Apple ブランドは自らの立場を守り、プロジェクトを守るためにあらゆる手を尽くしましたが、Apple は少しずつ手を下さなければなりませんでした。Florian Szymanke 氏が指摘したように、現在、この機能へのリンクはすべて彼の Web サイトから削除されています。

報告書によると、CSAMスキャンへのリンクは先週金曜日時点でもクパチーノ社のWebサイトに存在していたという。今では彼らはもういません。ただし、これは Apple がこの機能を完全に放棄したことを意味するものではありません。9to5Mac が指摘しているように、Apple ブランドが機能をよりよく反映し、いわば一般大衆にアピールするためにこれらのリンクを削除しただけである可能性があります。

新しいバージョンの前に精神を落ち着かせるためですか?

すでに述べたように、児童ポルノの発見は良いことです。懸念は、このテクノロジーによる影響と逸脱の可能性に関するものです。実際、Apple はこのアルゴリズムを使用してユーザーに関する新しいデータを取得する可能性があり、この機能が、たとえば少数派、活動家、政敵などに関する情報を求めてデバイスに侵入しようとする政府によって悪用されるのではないかとさえ懸念する人もいます。 。

現時点では、この機能が復活するかどうか、またどのような形で復活するかは誰にも分かりません。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です