Apple pilnībā nepiemin savu CSAM noteikšanas funkciju

Apple pilnībā nepiemin savu CSAM noteikšanas funkciju

Apple noņem saites uz savu bērnu pornogrāfijas noteikšanas rīku. Lai nomierinātu garus pirms jaunās versijas?

Pirms dažiem mēnešiem Apple sniedza, tā sakot, pārsteidzošu paziņojumu, paziņojot par nodomu ieviest potenciālu bērnu pornogrāfijas noteikšanas funkciju (CSAM noteikšana). Ja pati šīs funkcijas ideja ir diezgan cēla un tās ieviešana ir ideāli piemērota nelegāla satura un darbību efektīvai atklāšanai un izsekošanai, tas, ka Cupertino uzņēmums ierodas šādā veidā skenēt visus lietotāju fotoattēlus, ir ļoti sarežģīti.

Apple noņem saites uz savu bērnu pornogrāfijas noteikšanas rīku

Patiesībā strīds nebija ilgi jāgaida. Apple zīmols darīja visu iespējamo, lai aizstāvētu savas pozīcijas, aizstāvētu savu projektu, taču pamazām Apple nācās atkāpties. Šodien visas saites uz šo funkciju ir noņemtas no viņa vietnes, kā atzīmēja Florians Šimanke.

Saskaņā ar ziņojumu pagājušajā piektdienā Cupertino uzņēmuma tīmekļa vietnē joprojām bija saites uz CSAM skenēšanu. Tagad viņu vairs nav. Tomēr tas nenozīmē, ka Apple ir pilnībā atteicies no šīs funkcijas. Kā norāda 9to5Mac, iespējams, ka Apple zīmols vienkārši noņēma šīs saites, lai labāk atspoguļotu funkciju un, tā sakot, uzrunātu plašāku sabiedrību.

Lai nomierinātu garus pirms jaunās versijas?

Kā jau minēts, bērnu pornogrāfijas atklāšana ir laba lieta. Bažas ir saistītas ar sekām un iespējamām novirzēm no šīs tehnoloģijas. Patiešām, Apple varētu izmantot šo algoritmu, lai iegūtu jaunus datus par saviem lietotājiem, un daži pat baidās, ka šo funkciju varētu ļaunprātīgi izmantot valdības, kas varētu mēģināt iefiltrēties ierīcēs, meklējot informāciju, piemēram, par minoritātēm, aktīvistiem, politiskajiem oponentiem vai citiem. .

Šobrīd neviens nezina, vai šī funkcionalitāte kādreiz atgriezīsies un kādā formā.

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *