Az Apple előretör a meztelenségészlelő, gyermekvédelmi funkcióval az iOS 15.2 Messages alkalmazásában, de a szülőknek be kell kapcsolniuk.
Amikor az Apple először nyilvánosságra hozta gyermekvédelmi funkcióit, meglehetősen kritikus választ fogadtak rájuk, ami a tervezett bevezetés késését eredményezte. A legnagyobb adatvédelmi aggály – az Apple iCloud-fotókat a Child Sexual Abuse Material (CSAM) keresésére szkennelve – továbbra is függőben van, de a Bloomberg szerint a Messages frissítés kiadását az iOS 15.2-vel tervezik. Az Apple azt állítja, hogy alapértelmezés szerint nem lesz bekapcsolva, és a képelemzés az eszközön történik, így nem fog hozzáférni a potenciálisan érzékeny anyagokhoz.
Az Apple szerint, ha engedélyezve van, a funkció az eszközön lévő gépi tanulást használja annak észlelésére, hogy az Üzenetek alkalmazásban elküldött vagy fogadott fotók tartalmaznak-e szókimondó anyagokat. Ez elhomályosítja a potenciálisan szókimondó bejövő képeket, és figyelmezteti a gyermeket, vagy figyelmeztetést kap, ha valami szókimondóat küld.
Mindkét esetben a gyermeknek lehetősége lesz felvenni a kapcsolatot egy szülővel, és elmondani neki, hogy mi a helyzet. A Gyakran Ismételt Kérdések listájában az Apple kijelenti, hogy a 12 éves vagy annál fiatalabb gyermekfiókok esetén a gyermek figyelmeztetést kap, hogy felveszik a kapcsolatot a szülővel, ha nyíltan megtekintett/küldenek tartalmat. A 13 és 17 év közötti gyermekfiókok esetén a gyermeket figyelmeztetik a lehetséges kockázatra, de a szülőkkel nem vesszük fel a kapcsolatot.
Ugyanabban a GYIK-ben az Apple ragaszkodik ahhoz, hogy egyetlen információt sem osztanak meg külső felekkel, beleértve az Apple-t, a bűnüldöző szerveket vagy az NCMEC-et (National Center for Missing & Exploited Children).
A Messages új gyermekbiztonsági beállításai a közelgő iOS 15.2-es frissítésben lesznek elérhetők, amely a Macworld szerint valamikor ebben a hónapban fog megjelenni.