Apple loobub oma CSAM-i tuvastamise funktsiooni mainimisest

Apple loobub oma CSAM-i tuvastamise funktsiooni mainimisest

Apple eemaldab lingid oma lapsporno tuvastamise tööriistale. Vaimude rahustamiseks enne uut versiooni?

Mõni kuu tagasi tegi Apple nii-öelda üllatusteate, teatades oma kavatsusest rakendada potentsiaalset lapsporno tuvastamise funktsiooni (CSAM-i tuvastamine). Kui selle funktsiooni idee on üsna üllas ja selle rakendamine sobib ideaalselt ebaseadusliku sisu ja tegevuste tõhusaks tuvastamiseks ja jälgimiseks, on asjaolu, et Cupertino ettevõte tuleb sel viisil kõiki kasutajate fotosid skannima, väga raske.

Apple eemaldab lingid oma lapsporno tuvastamise tööriistale

Tegelikult ei lasknud vaidlus kaua oodata. Apple’i kaubamärk tegi kõik endast oleneva, et kaitsta oma positsiooni, kaitsta oma projekti, kuid Apple pidi tasapisi taganema. Tänaseks on kõik selle funktsiooni lingid tema veebisaidilt eemaldatud, nagu märkis Florian Szymanke.

Aruande kohaselt olid Cupertino ettevõtte veebisaidil eelmisel reedel endiselt lingid CSAM-i skaneeringutele. Nüüd neid enam pole. See aga ei tähenda, et Apple oleks sellest funktsioonist täielikult loobunud. Nagu 9to5Mac märgib, on võimalik, et Apple’i bränd lihtsalt eemaldas need lingid, et seda funktsiooni paremini kajastada ja nii-öelda avalikkust meelitada.

Vaimude rahustamiseks enne uut versiooni?

Nagu juba mainitud, on lapsporno avastamine hea asi. Mure on seotud selle tehnoloogia tagajärgede ja võimalike kõrvalekalletega. Tõepoolest, Apple võib seda algoritmi kasutada oma kasutajate kohta uute andmete hankimiseks ja mõned isegi kardavad, et valitsused võivad seda funktsiooni kuritarvitada, mis võib proovida tungida seadmetesse, mis otsivad teavet näiteks vähemuste, aktivistide, poliitiliste vastaste või teiste kohta. .

Hetkel ei tea keegi, kas see funktsionaalsus kunagi tagasi tuleb ja mis kujul.

Lisa kommentaar

Sinu e-postiaadressi ei avaldata. Nõutavad väljad on tähistatud *-ga