Notebookcheck Logo

Apple aangeklaagd voor het niet implementeren van CSAM-detectie in iCloud

Apple aangeklaagd voor het niet implementeren van CSAM-detectie in iCloud (Afbeelding Bron: Foto door Tayyab Ejaz op Unsplash)
Apple aangeklaagd voor het niet implementeren van CSAM-detectie in iCloud (Afbeelding Bron: Foto door Tayyab Ejaz op Unsplash)
Apple wordt geconfronteerd met een rechtszaak in Noord-Californië omdat het geen manier heeft gevonden om CSAM-detectie in iCloud te implementeren. De rechtszaak, aangespannen door een slachtoffer, beweert dat Apple's verzuim om het programma te implementeren niet heeft kunnen voorkomen dat haar afbeeldingen online werden gedeeld.

In 2021 heeft Apple aangekondigd en vervolgens snel ingetrokken een controversieel iCloud-systeem dat iMessage- en iCloud-foto's zou hebben gescand op materiaal over seksueel misbruik van kinderen (Child Sexual Abuse Material, CSAM).

Het systeem zou Apple in staat hebben gesteld om foto's te analyseren op Apple apparaten die door kinderen werden gebruikt, maar het bedrijf kwam in het oog van de storm terecht vanwege zorgen over de privacy die werden geuit door deskundigen en belangengroepen. Apple liet het systeem vallen en zei dat ze "de komende maanden extra tijd zouden nemen om input te verzamelen en verbeteringen aan te brengen voordat ze deze uiterst belangrijke functies voor de veiligheid van kinderen zouden vrijgeven."

In de jaren daarna is Apple stil gebleven over functies met betrekking tot CSAM. Nu (via Engadget), een rechtszaak van een slachtoffer, aangespannen bij de Amerikaanse arrondissementsrechtbank in Noord-Californië, beweert dat Apple's verzuim om veiligheidsmaatregelen te nemen ertoe heeft geleid dat afbeeldingen van haar ongepast online zijn verspreid.

Voor het eerst gemeld https://www.nytimes.com/2024/12/08/technology/apple-child-sexual-abuse-material-lawsuit.html door The New York Times, zei de 27-jarige dat zij en haar moeder voortdurend meldingen ontvingen van verschillende personen die beschuldigd werden van bezit. De rechtszaak eist financiële compensatie voor 2680 slachtoffers van wie de foto's online zijn gelekt.

Apple woordvoerder Fred Sainz vertelde Engadget dat CSAM "afschuwelijk is, en we zijn toegewijd aan het bestrijden van de manieren waarop roofdieren kinderen in gevaar brengen" Sainz zei dat het bedrijf "dringend en actief" op zoek was naar manieren "om deze misdaden te bestrijden zonder de veiligheid en privacy van al onze gebruikers in gevaar te brengen."

Bron(nen)

Engadget, The New York Times

Afbeeldingsbron: Foto door Tayyab Ejaz op Unsplash

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2024 12 > Apple aangeklaagd voor het niet implementeren van CSAM-detectie in iCloud
Rohith Bhaskar, 2024-12- 9 (Update: 2024-12- 9)