Hirdetés

Aggasztó kérdésre adott választ az Apple



|

Kiderült, miből gondolhatta egy mérnökük, hogy övék a legjobb platform a gyermekeket ábrázoló pornográf anyagok terjesztésére.

Hirdetés

Néhány napja számoltunk be arról, hogy a The Verge egy olyan belsős üzenetváltást fedezett fel az Apple vs. Epic Games per dokumentumai között, melyben a cupertinóiak biztonsági mérnöke a "legjobb platformnak" nevezte az almás ökoszisztémát a gyermekeket ábrázoló pornográf anyagok (Child Sexual Abuse Material - SCAM) terjesztésére. 

A szigorúan bizalmasként megjelölt beszélgetés azért nyert új értelmet, mert hetek óta áll a bál az Apple körül egy bevezetésre váró intézkedés, az iCloudba szinkronizált fotók automatikus szűrése miatt. A funkcióval az Apple algoritmusa automatikusan ellenőrzi majd a felhőben tárolt anyagokat, és ha pedofilgyanús tartalmat talál, az (emberek által végzett) kivizsgálást követően jelenti a birtokosát egy illetékes civil szervezetnek.

Hirdetés

A kizárólag az USA-ban alkalmazandó technológia azonban még nem aktív, így a 9to5Mac újságírója feltette a fontos kérdést, hogy vajon miből tudhatta az Apple biztonsági mérnöke (Eric Friedman), hogy milyen mennyiségben osztanak meg pedofil anyagokat az almás felhasználók?  A cupertinóiak ugyanis évek óta a magánszféra tiszteletben tartásával reklámozzák a termékeiket, az ilyen szintű rálátás viszont arra utalna, hogy valójában aktívan monitorozzák a vásárlóikat.

Nemrég megérkezett az Apple válasza, melyben a vállalat arról tájékoztatta a riportert, hogy az iCloud fotókat valóban nem figyeli, az iCloud Mail csatolmányait viszont igen: a levelezőrendszerben 2019 óta aktív az az automatikus mechanizmus, ami pedofil tartalmak után kutat a megosztott anyagok közt. Az Apple továbbá arra is utalt, hogy "kis mértékben" más adatokat is szűr, de azt nem árulta el a cég, hogy pontosan hol.

A 9to5Mac szerzője ebből azt a következtetést vonta le, hogy megfelelő rálátás híján Friedman "legjobb platformos" kijelentése valószínűleg nem mért adatokon alapult, hanem csak azon a tényen, hogy az Apple más szolgáltatókkal ellentétben egyetlen iCloud Fotók-felhasználót sem tilt le a gyermekeket ábrázoló pornográf anyagok feltöltéséért, mivel egyszerűen nem figyeli ezeket a tartalmakat.

Ami pedig az iCloud monitorozását illeti, az eddig sem volt nagy titok, az esetnek utánajárva az újságíró ugyanis két korábbi forrást is talált, amelyben az Apple és egy illetékese utalt a dologra. Az egyik a cég archivált gyermekbiztonsági nyilatkozata, a másik pedig Jane Horvath, magánéletért felelős vezetője, aki egy tavalyi konferencián beszélt az illegális anyagok aktív szűréséről.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.