A Twitter algoritmus faji elfogultsága nagyobb műszaki problémákra utal

Tartalomjegyzék:

A Twitter algoritmus faji elfogultsága nagyobb műszaki problémákra utal
A Twitter algoritmus faji elfogultsága nagyobb műszaki problémákra utal
Anonim

Kulcs elvitelek

  • A Twitter azt reméli, hogy orvosolja azt, amit a felhasználók faji elfogultságnak neveznek kép-előnézeti szoftverükben.
  • A technológiai óriás felhívása lehet az a kulturális számítás, amelyre az iparágnak szüksége van a sokszínűség problémáinak megoldásához.
  • A technológia sokszínűségének hiánya rontja technológiai fejlődésének hatékonyságát.
Image
Image

A Twitter vizsgálatot fog indítani a képkivágási algoritmusával kapcsolatban, miután felkapott témává vált, amely a technológiai ipar sokszínűségével kapcsolatos kérdésekről folytatott nagyobb beszélgetést.

A közösségi média mestere azután került a címlapokra, hogy a felhasználók nyilvánvaló faji elfogultságot fedeztek fel kép-előnézeti algoritmusában. A felfedezés azután történt, hogy a Twitter-felhasználó Colin Madland a platform segítségével jelezte, hogy a Zoom nem ismerte fel a zöld képernyő technológiát használó fekete kollégáit, de az irónia nagy show-jában azt találta, hogy a Twitter képkivágási algoritmusa hasonlóan viselkedik, és prioritáson kívül helyezte a fekete arcokat.

Természetesen ez óriási probléma minden kisebbség számára, de szerintem van egy sokkal szélesebb probléma is.

Más felhasználók is beszálltak a trendbe, ami egy sor vírusos tweetet váltott ki, amelyekben az algoritmus következetesen a fehér és világosabb bőrű arcokat részesítette előnyben, az emberektől a rajzfilmfigurákig és még a kutyákig is. Ez a kudarc egy nagyobb kulturális mozgalomra utal a technológiai iparban, amely következetesen nem veszi figyelembe a kisebbségi csoportokat, ami átterjedt a technikai oldalra.

"Szörnyű érzést kelt a kisebbségekben, mintha nem lennének fontosak, és más olyan dolgokra is felhasználható, amelyek komolyabb károkat okozhatnak a sorban." Erik Learned-Miller, az egyetem számítástechnika professzora Massachusettsből – mondta egy telefonos interjúban."Miután eldöntötted, hogy egy szoftver mire használható, és milyen károkat okozhat, akkor elkezdünk beszélni azokról a módokról, amelyekkel minimalizálhatjuk ezek előfordulásának esélyét."

Kanári az idővonalon

A Twitter neurális hálózatokat használ a tweetekbe ágyazott képek automatikus kivágására. Az algoritmusnak észlelnie kell az arcokat az előnézethez, de úgy tűnik, hogy észrevehető fehér torzítása van. A cég szóvivője, Liz Kelley a Twitteren válaszolt minden aggályra.

Kelley a Twitteren írta: "Köszönet mindenkinek, aki felvetette ezt. A modell kiszállítása előtt teszteltük az elfogultságot, és nem találtunk faji vagy nemi elfogultságra utaló bizonyítékot a tesztelés során, de egyértelmű, hogy további elemzésekre van szükségünk megnyitjuk a munkánkat, hogy mások áttekinthessék és lemásolhassák."

Az „Arcfelismerési technológiák a vadonban: Felhívás egy szövetségi hivatalhoz” című fehér könyv társszerzője, Learned-Miller az arcalapú mesterséges intelligencia tanulási szoftverek túlkapásaival foglalkozó vezető kutató. Évek óta vitatja az image-learning szoftverek lehetséges negatív hatásait, és beszélt egy olyan valóság megteremtésének fontosságáról, ahol ezeket az elfogultságokat a lehető legjobban enyhítik.

Az arcfelismerő technológia számos algoritmusa referenciakészleteket használ az adatokhoz, amelyeket gyakran tanítókészleteknek is neveznek, amelyek a képtanulási szoftverek viselkedésének finomhangolására használt képek gyűjteménye. Ez végül lehetővé teszi az AI számára, hogy könnyen felismerje az arcok széles körét. Ezekből a referenciakészletekből azonban hiányozhat a változatos készlet, ami olyan problémákhoz vezethet, mint amilyeneket a Twitter csapata tapaszt alt.

"Természetesen ez óriási probléma minden kisebbség számára, de szerintem van egy sokkal szélesebb probléma is" - mondta Learned-Miller. "Ez a technológiai szektor sokszínűségének hiányával és egy központosított, szabályozó erő szükségességével kapcsolatos, hogy bemutassák az ilyen erős szoftverek megfelelő felhasználását, amelyek hajlamosak a visszaélésekre és visszaélésekre."

A technológia hiányzik a sokszínűségből

Lehet, hogy a Twitter a legújabb technológiai vállalat a vágóblokkon, de ez messze nem új probléma. A technológiai terület továbbra is túlnyomórészt fehér, állandóan férfiak által ur alt terület, és a kutatók azt találták, hogy a sokféleség hiánya a rendszerszintű, történelmi egyensúlyhiányok megismétlődését okozza a kifejlesztett szoftverben.

A New York-i Egyetem AI Now Institute 2019-es jelentésében a kutatók megállapították, hogy az ország vezető technológiai cégeinél a feketék a munkaerő kevesebb mint 6 százalékát teszik ki. Hasonlóképpen, a nők csak a területen dolgozók 26 százalékát teszik ki – ez a statisztika alacsonyabb, mint 1960-ban.

Szörnyű érzést kelt a kisebbségekben, mintha nem lennének fontosak, és más olyan dolgokra is használható, amelyek komolyabb károkat okozhatnak a sorban.

A felszínen ezek a reprezentációs kérdések hétköznapinak tűnhetnek, de a gyakorlatban az okozott kár súlyos lehet. A kutatók az AI Now Institute jelentésében azt sugallják, hogy ez okozati összefüggésben áll a szoftverekkel kapcsolatos problémákkal, amelyek gyakran nem veszik figyelembe a nem fehérek és nem férfiak populációit. Legyen szó arról, hogy az infravörös szappanadagolók nem érzékelik a sötétebb bőrt, vagy az Amazon mesterséges intelligencia szoftvere, amely nem tudja megkülönböztetni a női arcokat a férfi társaikétól, a technológiai ipar sokszínűségének kezelésének kudarca ahhoz vezet, hogy a technológia nem képes megbirkózni a sokszínű világgal.

"Sok ember van, aki nem gondolta végig a problémákat, és nem igazán érti, hogy ezek a dolgok milyen károkat okozhatnak, és milyen jelentősek ezek a károk" - javasolta Learned-Miller az AI képtanulással kapcsolatban. "Remélhetőleg ez a létszám csökkenni fog!"

Ajánlott: