Apple upouští od všech zmínek o své funkci detekce CSAM

Apple upouští od všech zmínek o své funkci detekce CSAM

Apple odstraňuje odkazy na svůj nástroj pro detekci dětské pornografie. Uklidnit duchy před novou verzí?

Před několika měsíci Apple učinil takříkajíc překvapivé oznámení, v němž oznámil svůj záměr implementovat potenciální funkci detekce dětské pornografie (detekce CSAM). Pokud je samotná myšlenka této funkce poměrně ušlechtilá a její implementace je ideální pro efektivní odhalování a sledování nelegálního obsahu a aktivit, je fakt, že cupertinská společnost přichází skenovat fotografie všech uživatelů tímto způsobem, velmi obtížný.

Apple odstraňuje odkazy na svůj nástroj pro detekci dětské pornografie

Kontroverze na sebe ve skutečnosti nenechala dlouho čekat. Značka Apple udělala vše pro to, aby obhájila svou pozici, obhájila svůj projekt, ale Apple musel kousek po kousku ustoupit. Dnes byly všechny odkazy na tuto funkci z jeho webových stránek odstraněny, jak poznamenal Florian Szymanke.

Odkazy na skeny CSAM byly podle zprávy stále přítomné na webových stránkách cupertinské společnosti minulý pátek. Nyní už nejsou. To však neznamená, že Apple tuto funkci zcela opustil. Jak upozorňuje 9to5Mac, je možné, že značka Apple tyto odkazy jednoduše odstranila, aby funkci lépe odrážela a takříkajíc oslovila širokou veřejnost.

Uklidnit duchy před novou verzí?

Jak již bylo zmíněno, objev dětské pornografie je dobrá věc. Obavy se týkají důsledků a možných odchylek od této technologie. Apple by skutečně mohl tento algoritmus použít k získání nových dat o svých uživatelích a někteří se dokonce obávají, že by tato funkce mohla být zneužita vládami, které by se mohly pokusit infiltrovat zařízení hledající informace například o menšinách, aktivistech, politických oponentech a dalších. .

V tuto chvíli nikdo neví, zda se tato funkcionalita někdy vrátí a v jaké podobě.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *