Miért vet fel az új profilkészítő szoftver adatvédelmi aggályokat?

Tartalomjegyzék:

Miért vet fel az új profilkészítő szoftver adatvédelmi aggályokat?
Miért vet fel az új profilkészítő szoftver adatvédelmi aggályokat?
Anonim

Kulcs elvitelek

  • A mesterséges intelligenciát használó szoftverek az emberek profilozására adatvédelmi aggályokat vetnek fel.
  • A Cryfe a viselkedéselemzési technikákat mesterséges intelligenciával kombinálja.
  • A kínai Alibaba céget a közelmúltban kritika érte, miután állítólag azt mondta, hogy szoftvere képes észlelni az ujgurokat és más etnikai kisebbségeket.
Image
Image

A mesterséges intelligenciával hajtott új szoftver, amelyet a munkáltatóknak arra szánnak, hogy profilt készítsenek alkalmazottaikról, adatvédelmi aggályokat vet fel.

Egy új szoftverplatform, a Cryfe, a viselkedéselemzési technikákat kombinálja a mesterséges intelligenciával. A fejlesztő azt állítja, hogy a szoftver aprólékos nyomokat elemezve felfedheti az emberek szándékait az interjúk során. Egyes megfigyelők azonban azt mondják, hogy a Cryfe és más típusú, viselkedést elemző szoftverek megsérthetik a magánéletet.

"A vállalatok egyre inkább támaszkodnak mesterséges intelligenciára a profilalkotás során" - mondta Vaclav Vincale mesterséges intelligencia-szakértő egy e-mailes interjúban. "De még azok az emberek, akik kódolják ezeket az algoritmusokat, még kevésbé egy ügyfélszolgálati személy, akit telefonon elérsz, nem tudták megmondani, miért tesznek egy adott ajánlást."

Több mint szavak

A Cryfe-et egy svájci cég fejlesztette ki, amelynek alkalmazottait az FBI képezte ki a profilalkotási technikákról. "Cryfe minden interperszonális kommunikáció során nem csak a szavakat hallgatja meg, hanem azonosítja az ember által kibocsátott egyéb jeleket is, például érzelmeket, mikrokifejezéseket és minden gesztust" - mondta Caroline Matteucci, a Cryfe alapítója egy e-mailes interjúban.

"Például a toborzás során ez lehetővé teszi számunkra, hogy megkeressük beszélgetőpartnerünk valódi személyiségét."

Matteucci elmondta, hogy a felhasználók magánélete védve van, mert a vállalat átlátható a szoftver működését illetően. "A felhasználónak, mielőtt használni tudja a platformot, el kell fogadnia az általános feltételeket" - mondta.

"Itt meg van határozva, hogy a felhasználó semmilyen esetben sem adhat be interjút elemzés céljából a beszélgetőpartner írásos hozzájárulása nélkül."

A Cryfe nem az egyetlen mesterséges intelligencia által vezérelt szoftver, amely az emberi viselkedést elemzi. Ott van még a Humantic, amely azt állítja, hogy elemzi a fogyasztói viselkedést. "A Humantic úttörő technológiája mindenki viselkedését megjósolja anélkül, hogy valaha is személyiségtesztet kellene végeznie" - olvasható a cég honlapján.

Image
Image

A vállalat azt állítja, hogy mesterséges intelligencia segítségével hozza létre a jelentkezők pszichológiai profilját az önéletrajzokban, kísérőlevelekben, LinkedIn-profilokban és bármely más beküldött szövegrészben használt szavak alapján.

A viselkedési szoftverek a múltban jogi kihívásokba ütköztek. 2019-ben a Bloomberg Law arról számolt be, hogy az Egyenlő Foglalkoztatási Esélyek Bizottsága (EEOC) megvizsgálta az algoritmus által támogatott, HR-hez kapcsolódó döntések miatti állítólagos jogellenes diszkrimináció eseteit.

"Ezt az egészet ki kell dolgozni, mert a toborzás jövője az MI" - mondta Bradford Newman ügyvéd a Bloombergnek.

Egyes megfigyelők vitatják a viselkedéskövető szoftvert használó vállalatokat, mert az nem elég pontos. Egy interjúban Nigel Duffy, az EY professzionális szolgáltató cég mesterséges intelligenciával foglalkozó globális vezetője az InformationWeek-nek elmondta, hogy nyugtalanítják a közösségi média vetélkedőit és hatásfelismerést használó szoftverek.

"Szerintem van néhány igazán meggyőző irodalom az affektusfelismerés lehetőségeiről, de úgy tudom, hogy a megvalósítás módja gyakran meglehetősen naiv" - mondta.

"Az emberek olyan következtetéseket vonnak le, hogy a tudomány nem igazán támogatja [például] azt, hogy valaki potenciálisan jó alkalmazott legyen, mert sokat mosolyog, vagy úgy döntenek, hogy valaki szereti a termékeit, mert sokat mosolyog."

Kínai vállalatok állítólag kisebbségek profilja

Egyes emberi jogi csoportok szerint a viselkedéskövetésnek baljósabb céljai is lehetnek. Kínában az online piacterek óriása, az Alibaba nemrégiben nagy feltűnést keltett, miután állítólag azt állította, hogy szoftvere képes észlelni az ujgurokat és más etnikai kisebbségeket.

A New York Times arról számolt be, hogy a vállalat felhőalapú számítástechnikai üzletága rendelkezik olyan szoftverrel, amely képeket és videókat szkennel.

De még az ezeket az algoritmusokat kódoló emberek sem tudták megmondani, miért tesznek egy adott ajánlást.

A Washington Post nemrégiben arról is beszámolt, hogy a Huawei, egy másik kínai technológiai vállalat olyan szoftvert tesztelt, amely képes figyelmeztetni a bűnüldöző szerveket, ha térfigyelő kamerái ujgur arcokat észleltek.

A Huawei 2018-as szabadalmi bejelentése állítólag azt állította, hogy "a gyalogos attribútumok azonosítása nagyon fontos" az arcfelismerő technológiában."A célobjektum attribútumai lehetnek nem (férfi, nő), életkor (például tizenévesek, középkorúak, idősek) [vagy] faj (han, ujgur)" - írja az alkalmazás.

A Huawei szóvivője azt mondta a CNN Business-nek, hogy az etnikai hovatartozás azonosítására szolgáló funkciónak "soha nem lett volna szabad az alkalmazás részévé válnia".

A mesterséges intelligencia rohamosan terjedő használata hatalmas mennyiségű adat válogatására adatvédelmi aggályokat vet fel. Lehet, hogy soha nem tudhatod, ki vagy mi elemzi, amikor legközelebb állásinterjúra mész.

Ajánlott: