Kulcs elvitelek
- Az algoritmikus elfogultság káros azokra a tinédzserekre, akik sok időt töltenek az interneten, állítják a szakértők.
- A Twitter-felhasználók a közelmúltban olyan problémába ütköztek, hogy a fekete arcokat a fehérek javára választották ki.
- A kutatók szerint a tizenévesek fejlődő agya különösen érzékeny lehet az algoritmikus torzítás káros hatásaira.
Egyes technológiába beépült előítélet, az úgynevezett algoritmikus torzítás, sok csoport számára káros lehet, de a szakértők szerint ez különösen a tinédzserekre káros.
Az algoritmikus torzítás, amikor a számítógépes rendszerek előítéletes eredményeket mutatnak, egyre növekvő probléma. A Twitter-felhasználók a közelmúltban találtak példát a platform elfogultságára, amikor egy képérzékelő algoritmus, amely fényképeket vág ki, kivágta a fekete arcokat a fehérek javára. A cég elnézést kért a probléma miatt, de még nem tett közzé javítást. Ez egy példa arra az elfogultságra, amellyel a tinédzserek szembesülnek az internetezés során, amivel többet tesznek, mint bármely más korosztály, mondják a szakértők.
"A legtöbb tinédzser nincs tudatában annak, hogy a közösségi médiával foglalkozó cégek olyan konkrét tartalmakat hirdetnek, amelyekről úgy gondolják, hogy a felhasználóknak tetszeni fognak [annak érdekében], hogy a lehető leghosszabb ideig a platformon maradhassanak." Dr. Mai- Ly Nguyen Steers, a Duquesne Egyetem Ápolási Karának adjunktusa, aki a közösségi média használatát tanulmányozza serdülők/főiskolai hallgatók körében, egy e-mailes interjúban mondta.
"Még ha van is tudatosság az algoritmussal kapcsolatban, a hatás, ha nem kap elég kedvelést és megjegyzést, még mindig erős, és hatással lehet a tizenévesek önbecsülésére" - tette hozzá Steers.
Agy fejlesztése
Az algoritmikus torzítás előre nem látható módon érintheti a tinédzsereket, mivel prefrontális kéregük még mindig fejlődik – magyarázta Mikaela Pisani, a Rootstrap vezető adatkutatója egy e-mailes interjúban.
A hatás, ha nem kap elég kedvelést és megjegyzést, továbbra is erős, és hatással lehet a tizenévesek önbecsülésére.
"A tizenévesek különösen érzékenyek a "Social Factory" jelenségére, ahol az algoritmusok társadalmi klasztereket hoznak létre az online platformokon, ami szorongáshoz és depresszióhoz vezet, ha a tinédzser társadalmi jóváhagyás iránti szükséglete nem teljesül" - mondta Pisani. "Az algoritmusok egyszerűsödnek a korábbi tökéletlen adatok alapján, ami a sztereotípiák túlreprezentáltságához vezet az identitásképzés árny altabb megközelítéseinek rovására.
"Tágabb nézőpontból azt is megkérdőjelezzük, mint társadalom, hogy akarunk-e olyan algoritmusokat, amelyek formálják tinédzsereink felnőtté válását, és ez a rendszer támogatja-e, nem pedig elfojtja az egyéni személyes fejlődést?"
E problémák miatt egyre nagyobb szükség van arra, hogy a tinédzsereket szem előtt tartsák az algoritmusok tervezése során, mondják a szakértők.
"A fejlesztési szakértők, adattudósok és ifjúságvédők véleménye alapján a 21. századi adatvédelemre és algoritmikus tervezésre vonatkozó irányelveket a serdülők sajátos szükségleteinek figyelembevételével is meg lehet alkotni." Avriel Epps-Darling, doktorandusz Harvard hallgatója – írta nemrég. "Ha ehelyett továbbra is lekicsinyeljük vagy figyelmen kívül hagyjuk azt a módot, ahogyan a tinédzserek sebezhetőek az algoritmikus rasszizmussal szemben, a károk valószínűleg az elkövetkező nemzedékeken keresztül visszhangzanak."
Elfogultság elleni küzdelem
A megoldás megszületéséig egyes kutatók megpróbálják megtalálni a módját annak, hogy csökkentsék az elfogult algoritmusok által a fiatalokban okozott károkat.
"A beavatkozások arra irányultak, hogy a tizenévesek felismerjék, közösségi médiás szokásaik negatívan befolyásolják mentális egészségüket, és stratégiákat próbáltak kidolgozni ennek enyhítésére (pl. a közösségi média csökkentett használata)" - mondta Steers.
"Néhány főiskolai hallgató, akivel megkérdeztünk, jelezte, hogy késztetést érez arra, hogy tartalmat generáljon, hogy "releváns" maradjon, még akkor is, ha nem akar kimenni vagy posztolni" - folytatta. "Úgy érzik azonban, hogy tartalmat kell létrehozniuk, hogy fenntartsák kapcsolataikat követőikkel vagy barátaikkal."
A végső válasz az emberi elfogultság eltávolítása lehet a számítógépekből. De mivel a programozók csak emberek, ez kemény kihívás, mondják a szakértők.
Az egyik lehetséges megoldás olyan számítógépek fejlesztése, amelyek decentralizáltak és úgy vannak programozva, hogy elfelejtsék a tanultakat – mondja John Suit, a KODA robotikai cég technológiai igazgatója.
"Egy decentralizált hálózaton keresztül az adatok és az adatok elemzése több ponton is összeállításra és elemzésre kerül" - mondta Suit egy e-mailes interjúban. „Nem egyetlen mesterséges intelligencia feldolgozásból gyűjtik és dolgozzák fel az adatokat az algoritmusának korlátain belül, hanem több száz vagy akár ezret.
"Az adatok összegyűjtése és elemzése során a régi "következtetések" vagy a felesleges adatok feledésbe merülnek. Ezen a rendszeren keresztül egy algoritmus, amely esetleg torzítással indult, végül kijavítja és helyettesíti ezt a torzítást, ha hibásnak bizonyul."
Bár az elfogultság ősrégi probléma, lehet, hogy van mód ennek leküzdésére, legalábbis online. Az első lépés olyan számítógépek tervezése, amelyek levezetik előítéleteinket.