„Apple“ visiškai nepaminėjo savo CSAM aptikimo funkcijos

„Apple“ visiškai nepaminėjo savo CSAM aptikimo funkcijos

„Apple“ pašalina nuorodas į savo vaikų pornografijos aptikimo įrankį. Nuraminti dvasias prieš naują versiją?

Prieš kelis mėnesius „Apple“, taip sakant, netikėtai paskelbė, kad ketina įdiegti galimą vaikų pornografijos aptikimo funkciją (CSAM aptikimą). Jei pati šios funkcijos idėja yra gana kilni, o jos įgyvendinimas idealiai tinka efektyviam nelegalaus turinio ir veiklos aptikimui ir sekimui, tai, kad Cupertino kompanija ateina tokiu būdu nuskaityti visų vartotojų nuotraukas, yra labai sunku.

„Apple“ pašalina nuorodas į savo vaikų pornografijos aptikimo įrankį

Tiesą sakant, ginčas netruko laukti. „Apple“ prekės ženklas padarė viską, kad apgintų savo pozicijas, apgintų savo projektą, tačiau „Apple“ po truputį turėjo nusileisti. Šiandien visos nuorodos į šią funkciją buvo pašalintos iš jo svetainės, kaip pažymėjo Florianas Szymanke.

Remiantis ataskaita, praėjusį penktadienį Cupertino bendrovės svetainėje vis dar buvo nuorodos į CSAM nuskaitymus. Dabar jų nebėra. Tačiau tai nereiškia, kad Apple visiškai atsisakė šios funkcijos. Kaip pažymi „9to5Mac“, gali būti, kad „Apple“ prekės ženklas tiesiog pašalino šias nuorodas, kad geriau atspindėtų funkciją ir, taip sakant, patiktų plačiajai visuomenei.

Nuraminti dvasias prieš naują versiją?

Kaip jau minėta, vaikų pornografijos atradimas yra geras dalykas. Susirūpinimas yra susijęs su pasekmėmis ir galimais nukrypimais nuo šios technologijos. Iš tiesų, „Apple“ gali naudoti šį algoritmą naujiems duomenims apie savo vartotojus gauti, o kai kurie netgi baiminasi, kad šia funkcija gali piktnaudžiauti vyriausybės, bandančios įsiskverbti į įrenginius, ieškančius informacijos, pavyzdžiui, apie mažumas, aktyvistus, politinius oponentus ar kt. .

Šiuo metu niekas nežino, ar ši funkcija kada nors sugrįš ir kokia forma.

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *