Apple jättää mainitsematta CSAM-tunnistusominaisuuden
Apple poistaa linkit lapsipornografian havaitsemistyökaluun. Rauhoitellaksesi henkiä ennen uutta versiota?
Muutama kuukausi sitten Apple teki niin sanotusti yllättävän ilmoituksen, jossa se ilmoitti aikovansa ottaa käyttöön mahdollisen lapsipornografian tunnistusominaisuuden (CSAM-tunnistus). Jos tämän ominaisuuden idea on melko jalo ja sen toteutus on ihanteellinen laittoman sisällön ja toimintojen tehokkaaseen havaitsemiseen ja seurantaan, se, että Cupertino-yritys tulee skannaamaan kaikkien käyttäjien valokuvat tällä tavalla, on erittäin vaikeaa.
Apple poistaa linkit lapsipornografian havaitsemistyökaluun
Itse asiassa kiista ei odottanut kauan. Apple-brändi teki kaikkensa puolustaakseen asemaansa, puolustaakseen projektiaan, mutta pikkuhiljaa Apple joutui perääntymään. Tänään kaikki linkit tähän ominaisuuteen on poistettu hänen verkkosivustoltaan, kuten Florian Szymanke totesi.
Raportin mukaan Cupertino-yhtiön verkkosivuilla oli vielä viime perjantaina linkkejä CSAM-skannauksiin. Nyt niitä ei enää ole. Tämä ei kuitenkaan tarkoita, että Apple olisi hylännyt tämän ominaisuuden kokonaan. Kuten 9to5Mac huomauttaa, on mahdollista, että Apple-brändi yksinkertaisesti poisti nämä linkit kuvastaakseen ominaisuutta paremmin ja niin sanotusti vetoaakseen suureen yleisöön.
Rauhoitellaksesi henkiä ennen uutta versiota?
Kuten jo mainittiin, lapsipornografian löytäminen on hyvä asia. Huolet liittyvät seurauksiin ja mahdollisiin poikkeamiin tästä tekniikasta. Itse asiassa Apple voisi käyttää tätä algoritmia hankkiakseen uusia tietoja käyttäjistään, ja jotkut jopa pelkäävät, että hallitukset voivat yrittää tunkeutua laitteisiin, jotka etsivät tietoa esimerkiksi vähemmistöistä, aktivisteista, poliittisista vastustajista tai muista. .
Tällä hetkellä kukaan ei tiedä palaako tämä toiminnallisuus koskaan ja missä muodossa.
Vastaa