A legfontosabb elvitelek
- A Zoom állítólag azt mondta, hogy mesterséges intelligencia segítségével értékelné a felhasználó hangulatát vagy elkötelezettségi szintjét.
- Emberi jogi csoportok arra kérik a Zoomot, hogy gondolja újra tervét adatvédelmi és adatbiztonsági aggályok miatt.
- Néhány vállalat érzelemérzékelő szoftvert is használ az interjúk során annak felmérésére, hogy a felhasználó odafigyel-e.
A mesterséges intelligencia (AI) növekvő használata az emberi érzelmek megfigyelésére adatvédelmi aggályokat vet fel.
Az emberi jogi szervezetek arra kérik a Zoomot, hogy lassítsa le azon tervét, hogy az érzelemelemző mesterséges intelligenciát bevezesse videokonferencia szoftverébe. A cég állítólag azt mondta, hogy mesterséges intelligencia segítségével fogja értékelni a felhasználó hangulatát vagy elkötelezettségi szintjét.
"A szakértők elismerik, hogy az érzelemelemzés nem működik" - írta a Zoomnak írt levelében az emberi jogi csoportok konzorciuma, köztük az ACLU. "Az arckifejezések gyakran elszakadnak az alatta lévő érzelmektől, és a kutatások azt találták, hogy néha még az emberek sem tudják pontosan leolvasni vagy mérni mások érzelmeit. Ennek az eszköznek a fejlesztése hitelt ad az áltudománynak, és kockára teszi az Ön hírnevét."
A Zoom nem válaszolt azonnal a Lifewire megjegyzéskérésére.
Tartsa figyelemmel az érzelmeit
A Protocol cikke szerint a Q for Sales nevű Zoom figyelőrendszer ellenőrizni fogja a felhasználók beszélgetési időarányát, a válaszidő késleltetését és a gyakori hangszóróváltásokat, hogy nyomon kövesse az érintett személy elkötelezettségét. A Zoom ezeket az adatokat használja a nulla és 100 közötti pontszámok hozzárendeléséhez, a magasabb pontszám pedig nagyobb elkötelezettséget vagy érzelmet jelez.
Az emberi jogi csoportok azt állítják, hogy a szoftver hátrányos megkülönböztetést jelenthet a fogyatékossággal élő vagy bizonyos etnikumú emberekkel szemben, ha feltételezi, hogy mindenki ugyanazt az arckifejezést, hangmintát és testbeszédet használja a kommunikációhoz. A csoportok szerint a szoftver adatbiztonsági kockázatot is jelenthet.
"A levél szerint a mélyen személyes adatok begyűjtése minden olyan entitást, amely ezt a technológiát alkalmazza, célpontjává teheti a kormányzati hatóságok és a rosszindulatú hackerek leskelődését."
Julia Sztojanovics, a New York-i Egyetem számítástechnika és mérnöki professzora egy e-mailes interjúban elmondta a Lifewire-nek, hogy szkeptikus az érzelemfelismerés mögött meghúzódó állításokkal kapcsolatban.
"Nem értem, hogyan tud működni egy ilyen technológia – az emberek érzelmi kifejezése nagyon egyéni, nagyon kulturális függő, és nagyon kontextusfüggő" – mondta Sztojanovics."De ami talán még ennél is fontosabb, nem értem, miért akarjuk, hogy ezek az eszközök működjenek. Más szóval, még nagyobb bajban lennénk, ha jól működnének. De talán még mielőtt a kockázatokra gondolnánk, érdemes lenne kérdezd meg – mik az ilyen technológia lehetséges előnyei?"
A Zoom nem az egyetlen cég, amely érzelemérzékelő szoftvert használ. Theo Wills, a Kuma LLC adatvédelmi és biztonsági tanácsadó cég adatvédelmi igazgatója e-mailben elmondta a Lifewire-nek, hogy az érzelmek kimutatására szolgáló szoftvert az interjúk során felmérik, hogy a felhasználó odafigyel-e. Kísérlet alatt van a közlekedési ágazatban is, hogy figyelje, ha a sofőrök álmosnak tűnnek-e, videóplatformokon, hogy felmérje az érdeklődést és személyre szabhassa az ajánlásokat, valamint oktatási oktatóanyagokban annak megállapítására, hogy egy adott tanítási módszer vonzó-e.
Wills azt állította, hogy az érzelemfigyelő szoftver körüli vita inkább adatetikai, mintsem adatvédelem kérdése. Azt mondta, hogy arról van szó, hogy a rendszer megérzések alapján valós döntéseket hoz.
"Ezzel a technológiával most azt feltételezi, hogy mi az oka annak, hogy van egy bizonyos kifejezés az arcomon, de a kifejezés mögött meghúzódó lendület nagyon eltérő lehet olyan dolgok miatt, mint a társadalmi vagy kulturális nevelés, a családi viselkedés, a múltbeli tapasztalatok vagy az idegesség. pillanatnyilag – tette hozzá Wills. "Az algoritmus feltevésre alapozása eleve hibás és potenciálisan diszkriminatív. Sok populáció nincs képviselve abban a sokaságban, amelyen az algoritmusok alapulnak, és a megfelelő reprezentációt prioritásként kell kezelni, mielőtt ezt használnák."
Gyakorlati megfontolások
Az érzelemkövető szoftver által felvetett problémák gyakorlatiak és elméletiek is lehetnek. Matt Heisie, a Ferret.ai, a kapcsolatok intelligenciáját biztosító mesterséges intelligencia-vezérelt alkalmazás társalapítója egy e-mailben elmondta a Lifewire-nek, hogy a felhasználóknak meg kell kérdezniük, hol történik az arcok elemzése, és milyen adatokat tárolnak. A vizsgálatot hívásfelvételeken, felhőben vagy helyi eszközön dolgozzák fel?
Heisie azt is megkérdezte, amint az algoritmus megtanulja, milyen adatokat gyűjt egy személy arcáról vagy mozdulatairól, amelyek potenciálisan elválaszthatók az algoritmustól, és felhasználhatók valaki biometrikus adatainak újbóli létrehozására? Tárol-e a vállalat pillanatképeket az algoritmus tanulságainak ellenőrzésére vagy érvényesítésére, és a felhasználót értesítik-e ezekről az új származékos adatokról vagy tárolt képekről, amelyeket a hívásaikból esetleg gyűjtenek?
"Ezek mind olyan problémák, amelyeket sok vállalat megoldott, de vannak olyan cégek is, amelyeket botrány rázott meg, amikor kiderült, hogy ezt nem megfelelően tették" - mondta Heisie. "A Facebook a legjelentősebb eset egy olyan vállalatnál, amely visszavonta arcfelismerő platformját a felhasználói adatvédelemmel kapcsolatos aggodalmak miatt. A Meta anyavállalat néhány joghatóságon, például Illinois-ban és Texasban AR-funkciókat von le az Instagramból a biometrikus adatokkal kapcsolatos adatvédelmi törvények miatt."