Kulcs elvitelek
- A Twitter azt reméli, hogy orvosolja azt, amit a felhasználók faji elfogultságnak neveznek kép-előnézeti szoftverükben.
- A technológiai óriás felhívása lehet az a kulturális számítás, amelyre az iparágnak szüksége van a sokszínűség problémáinak megoldásához.
- A technológia sokszínűségének hiánya rontja technológiai fejlődésének hatékonyságát.
A Twitter vizsgálatot fog indítani a képkivágási algoritmusával kapcsolatban, miután felkapott témává vált, amely a technológiai ipar sokszínűségével kapcsolatos kérdésekről folytatott nagyobb beszélgetést.
A közösségi média mestere azután került a címlapokra, hogy a felhasználók nyilvánvaló faji elfogultságot fedeztek fel kép-előnézeti algoritmusában. A felfedezés azután történt, hogy a Twitter-felhasználó Colin Madland a platform segítségével jelezte, hogy a Zoom nem ismerte fel a zöld képernyő technológiát használó fekete kollégáit, de az irónia nagy show-jában azt találta, hogy a Twitter képkivágási algoritmusa hasonlóan viselkedik, és prioritáson kívül helyezte a fekete arcokat.
Természetesen ez óriási probléma minden kisebbség számára, de szerintem van egy sokkal szélesebb probléma is.
Más felhasználók is beszálltak a trendbe, ami egy sor vírusos tweetet váltott ki, amelyekben az algoritmus következetesen a fehér és világosabb bőrű arcokat részesítette előnyben, az emberektől a rajzfilmfigurákig és még a kutyákig is. Ez a kudarc egy nagyobb kulturális mozgalomra utal a technológiai iparban, amely következetesen nem veszi figyelembe a kisebbségi csoportokat, ami átterjedt a technikai oldalra.
"Szörnyű érzést kelt a kisebbségekben, mintha nem lennének fontosak, és más olyan dolgokra is felhasználható, amelyek komolyabb károkat okozhatnak a sorban." Erik Learned-Miller, az egyetem számítástechnika professzora Massachusettsből – mondta egy telefonos interjúban."Miután eldöntötted, hogy egy szoftver mire használható, és milyen károkat okozhat, akkor elkezdünk beszélni azokról a módokról, amelyekkel minimalizálhatjuk ezek előfordulásának esélyét."
Kanári az idővonalon
A Twitter neurális hálózatokat használ a tweetekbe ágyazott képek automatikus kivágására. Az algoritmusnak észlelnie kell az arcokat az előnézethez, de úgy tűnik, hogy észrevehető fehér torzítása van. A cég szóvivője, Liz Kelley a Twitteren válaszolt minden aggályra.
Kelley a Twitteren írta: "Köszönet mindenkinek, aki felvetette ezt. A modell kiszállítása előtt teszteltük az elfogultságot, és nem találtunk faji vagy nemi elfogultságra utaló bizonyítékot a tesztelés során, de egyértelmű, hogy további elemzésekre van szükségünk megnyitjuk a munkánkat, hogy mások áttekinthessék és lemásolhassák."
Az „Arcfelismerési technológiák a vadonban: Felhívás egy szövetségi hivatalhoz” című fehér könyv társszerzője, Learned-Miller az arcalapú mesterséges intelligencia tanulási szoftverek túlkapásaival foglalkozó vezető kutató. Évek óta vitatja az image-learning szoftverek lehetséges negatív hatásait, és beszélt egy olyan valóság megteremtésének fontosságáról, ahol ezeket az elfogultságokat a lehető legjobban enyhítik.
Az arcfelismerő technológia számos algoritmusa referenciakészleteket használ az adatokhoz, amelyeket gyakran tanítókészleteknek is neveznek, amelyek a képtanulási szoftverek viselkedésének finomhangolására használt képek gyűjteménye. Ez végül lehetővé teszi az AI számára, hogy könnyen felismerje az arcok széles körét. Ezekből a referenciakészletekből azonban hiányozhat a változatos készlet, ami olyan problémákhoz vezethet, mint amilyeneket a Twitter csapata tapaszt alt.
"Természetesen ez óriási probléma minden kisebbség számára, de szerintem van egy sokkal szélesebb probléma is" - mondta Learned-Miller. "Ez a technológiai szektor sokszínűségének hiányával és egy központosított, szabályozó erő szükségességével kapcsolatos, hogy bemutassák az ilyen erős szoftverek megfelelő felhasználását, amelyek hajlamosak a visszaélésekre és visszaélésekre."
A technológia hiányzik a sokszínűségből
Lehet, hogy a Twitter a legújabb technológiai vállalat a vágóblokkon, de ez messze nem új probléma. A technológiai terület továbbra is túlnyomórészt fehér, állandóan férfiak által ur alt terület, és a kutatók azt találták, hogy a sokféleség hiánya a rendszerszintű, történelmi egyensúlyhiányok megismétlődését okozza a kifejlesztett szoftverben.
A New York-i Egyetem AI Now Institute 2019-es jelentésében a kutatók megállapították, hogy az ország vezető technológiai cégeinél a feketék a munkaerő kevesebb mint 6 százalékát teszik ki. Hasonlóképpen, a nők csak a területen dolgozók 26 százalékát teszik ki – ez a statisztika alacsonyabb, mint 1960-ban.
Szörnyű érzést kelt a kisebbségekben, mintha nem lennének fontosak, és más olyan dolgokra is használható, amelyek komolyabb károkat okozhatnak a sorban.
A felszínen ezek a reprezentációs kérdések hétköznapinak tűnhetnek, de a gyakorlatban az okozott kár súlyos lehet. A kutatók az AI Now Institute jelentésében azt sugallják, hogy ez okozati összefüggésben áll a szoftverekkel kapcsolatos problémákkal, amelyek gyakran nem veszik figyelembe a nem fehérek és nem férfiak populációit. Legyen szó arról, hogy az infravörös szappanadagolók nem érzékelik a sötétebb bőrt, vagy az Amazon mesterséges intelligencia szoftvere, amely nem tudja megkülönböztetni a női arcokat a férfi társaikétól, a technológiai ipar sokszínűségének kezelésének kudarca ahhoz vezet, hogy a technológia nem képes megbirkózni a sokszínű világgal.
"Sok ember van, aki nem gondolta végig a problémákat, és nem igazán érti, hogy ezek a dolgok milyen károkat okozhatnak, és milyen jelentősek ezek a károk" - javasolta Learned-Miller az AI képtanulással kapcsolatban. "Remélhetőleg ez a létszám csökkenni fog!"