Apple dropper al omtale af sin CSAM-detektionsfunktion
Apple fjerner links til dets værktøj til registrering af børnepornografi. For at formilde ånderne før den nye version?
For et par måneder siden kom Apple så at sige en overraskende meddelelse, hvor de annoncerede sin hensigt om at implementere en potentiel børnepornografigenkendelsesfunktion (CSAM-detektion). Hvis selve ideen med denne funktion er ret nobel, og dens implementering er ideel til effektivt at opdage og spore ulovligt indhold og aktiviteter, er det meget vanskeligt, at Cupertino-virksomheden kommer til at scanne alle brugeres fotos på denne måde.
Apple fjerner links til dets værktøj til registrering af børnepornografi
Faktisk lod striden ikke vente på sig. Apple-mærket gjorde alt for at forsvare sin position, for at forsvare sit projekt, men lidt efter lidt måtte Apple bakke op. I dag er alle links til denne funktion blevet fjernet fra hans hjemmeside, som bemærket af Florian Szymanke.
Links til CSAM-scanninger var ifølge rapporten stadig til stede på Cupertino-virksomhedens hjemmeside sidste fredag. Nu er de ikke mere. Det betyder dog ikke, at Apple helt har opgivet denne funktion. Som 9to5Mac påpeger, er det muligt, at Apple-mærket simpelthen fjernede disse links for bedre at afspejle funktionen og så at sige appellere til den brede offentlighed.
For at formilde ånderne før den nye version?
Som allerede nævnt er opdagelsen af børnepornografi en god ting. Bekymringer vedrører konsekvenserne og mulige afvigelser fra denne teknologi. Faktisk kunne Apple bruge denne algoritme til at få nye data om sine brugere, og nogle frygter endda, at funktionen kan blive misbrugt af regeringer, der kan forsøge at infiltrere enheder, der leder efter information om for eksempel minoriteter, aktivister, politiske modstandere eller andre .
I øjeblikket ved ingen, om denne funktionalitet nogensinde vil vende tilbage og i hvilken form.
Skriv et svar