Az Apple késlelteti a gyermekbántalmazás elleni technológiát

Az Apple késlelteti a gyermekbántalmazás elleni technológiát
Az Apple késlelteti a gyermekbántalmazás elleni technológiát
Anonim

A kritikusok és a felhasználók sok visszaszorítása után az Apple elhalasztja a gyermekbántalmazás elleni intézkedéseit.

Augusztusban a technológiai óriás először bejelentett egy új irányelvet, amely technológiát használ a potenciális gyermekbántalmazási képek észlelésére az iCloudban és a Messagesben, de aggodalmak követték ezt. A szakértők arra figyelmeztettek, hogy bár az Apple megígérte a felhasználók adatvédelmét, a technológia végső soron minden Apple-felhasználót veszélybe sodor.

Image
Image

Pénteken az Apple azt mondta, hogy teljes mértékben késlelteti a technológia bevezetését a fejlesztések elvégzése és a felhasználói adatvédelem teljes körű biztosítása érdekében.

"Az ügyfelektől, érdekképviseleti csoportoktól, kutatóktól és másoktól kapott visszajelzések alapján úgy döntöttünk, hogy az elkövetkező hónapokban további időt fordítunk arra, hogy összegyűjtsük a véleményeket és javítsunk, mielőtt kiadnánk ezeket a kritikus fontosságú gyermekbiztonsági funkciókat" - mondta az Apple. frissített közleménye a honlapján.

A gyermekek szexuális zaklatását észlelő technológiának várhatóan még ebben az évben elérhetővé kellett volna válnia az iOS 15 bevezetésében, de most nem világos, hogy a funkció mikor fog debütálni, vagy ha.

Az új technológia kétféleképpen működne: először is úgy, hogy beszkennel egy képet, mielőtt biztonsági másolatot készítene az iCloudba. Ha ez a kép megfelel a CSAM kritériumainak, az Apple megkapja ezeket az adatokat. A technológia másik része gépi tanulást használ a nyíltan szexuális jellegű képek azonosítására és elmosására, amelyeket a gyerekek az Üzeneteken keresztül kapnak.

Az új szabályzat bejelentése után azonban az adatvédelmi jogvédők és csoportok azt mondták, hogy az Apple lényegében egy hátsó ajtót nyit meg, amellyel a rossz szereplők visszaélhetnek.

Az aggodalmak megoldása érdekében az Apple röviddel a CSAM technológia bejelentése után kiadott egy GYIK old alt. Az Apple elmagyarázta, hogy a technológia nem fogja átvizsgálni az eszközön tárolt összes fényképet, megszakítani a végpontok közötti titkosítást a Messages alkalmazásban, és nem jelent meg hamisan ártatlan embereket a bűnüldöző szerveknek.

Ajánlott: