Az Apple foglalkozik a gyermekbántalmazás elleni új intézkedésekkel kapcsolatos aggályaival

Az Apple foglalkozik a gyermekbántalmazás elleni új intézkedésekkel kapcsolatos aggályaival
Az Apple foglalkozik a gyermekbántalmazás elleni új intézkedésekkel kapcsolatos aggályaival
Anonim

Az Apple részletesebben elmagyarázza a gyermekbántalmazás elleni új intézkedéseinek folyamatát.

A technológiai óriás a múlt héten új irányelvet jelentett be, amely technológiát használ a gyermekbántalmazás lehetséges képeinek észlelésére az iCloudban és az Messagesben. A The Verge jelentése szerint az Apple az elmúlt napokban kiadott egy GYIK old alt, amely elmagyarázza, hogyan használják a technológiát és hogyan néznek ki az adatvédelmi szempontok, miután az emberek aggodalmukat fejezték ki az új intézkedések miatt.

Image
Image

Az Apple azt mondta, hogy technológiája kifejezetten a gyermekek szexuális zaklatását tartalmazó anyagok (CSAM) észlelésére korlátozódik, és nem lehet megfigyelőeszközzé tenni.

"Az egyik jelentős kihívás ezen a téren a gyermekek védelme, ugyanakkor a felhasználók magánéletének megőrzése" - írta az Apple az új GYIK oldalon.

"Ezzel az új technológiával az Apple megismeri az iCloud Photos szolgáltatásban tárolt ismert CSAM-fotókat, ahol a fiók az ismert CSAM-gyűjteményt tárolja. Az Apple nem fog megtudni semmit a kizárólag az eszközön tárolt egyéb adatokról."

A technológia úgy működik, hogy beszkennel egy képet, mielőtt arról biztonsági másolat készülne az iCloudba. Ezután, ha egy kép megfelel a CSAM kritériumainak, az Apple megkapja a kriptográfiai utalvány adatait.

Az olyan csoportok, mint például az Electronic Frontier Foundation, a múlt héten hangot adtak aggodalmuknak a technológiával kapcsolatban, mondván, hogy a technológiát „újra lehet építeni a „terrorista” tartalom adatbázisának létrehozására, amelyhez a vállalatok hozzájárulhatnak és hozzáférhetnek betiltása céljából. ilyen tartalom."

E téren az egyik jelentős kihívás a gyermekek védelme, ugyanakkor a felhasználók magánéletének megőrzése.

Azonban az Apple részletes GYIK oldala foglalkozik ezen aggályok némelyikével azáltal, hogy a technológia nem fogja átvizsgálni az eszközön tárolt összes fényképet, nem töri meg a végpontok közötti titkosítást az Üzenetek szolgáltatásban, és nem ártatlan emberek hamis megjelölése a bűnüldözés előtt.

A The Verge megjegyzi, hogy az Apple GYIK-je nem foglalkozik az üzenetek vizsgálatára használt technológiával kapcsolatos aggályokra, és arra, hogy a vállalat hogyan biztosítja, hogy a vizsgálat csak a CSAM-ra összpontosítson.

Ajánlott: