Az AI végre segíthet a gyűlöletbeszéd visszaszorításában

Tartalomjegyzék:

Az AI végre segíthet a gyűlöletbeszéd visszaszorításában
Az AI végre segíthet a gyűlöletbeszéd visszaszorításában
Anonim

Kulcs elvitelek

  • Egy új szoftvereszköz lehetővé teszi a mesterséges intelligencia figyelését az internetes megjegyzésekben a gyűlöletbeszédre.
  • A mesterséges intelligencia az internetes tartalmak moderálásához szükséges, mert az anyag hatalmas mennyisége meghaladja az emberi képességeket.
  • De egyes szakértők szerint a beszéd mesterséges intelligencia-figyelése adatvédelmi aggályokat vet fel.
Image
Image

Ahogy az online gyűlöletbeszéd növekszik, az egyik vállalat azt állítja, hogy lehet olyan megoldása, amely nem emberi moderátorokra támaszkodik.

A Spectrum Labs nevű startup mesterséges intelligencia technológiát biztosít a platformszolgáltatók számára a mérgező cserék valós időben történő észleléséhez és leállításához. A szakértők azonban azt mondják, hogy a mesterséges intelligencia megfigyelése adatvédelmi problémákat is felvet.

"A mesterséges intelligencia monitorozása gyakran megkívánja az idő múlásával járó mintákat, ami szükségessé teszi az adatok megőrzését" - mondta David Moody, a Schellman, a biztonsági és adatvédelmi megfelelést értékelő cég vezető munkatársa a Lifewire-nek egy e-mailes interjúban. "Ezek az adatok tartalmazhatnak olyan adatokat, amelyeket a törvények adatvédelmi adatként jelöltek meg (személyazonosításra alkalmas adatok vagy PII)."

További gyűlöletbeszéd

A Spectrum Labs csúcstechnológiás megoldást ígér a gyűlöletbeszéd ősrégi problémájára.

"Átlagosan segítünk a platformoknak 50%-kal csökkenteni a tartalommoderálási erőfeszítéseket, és tízszeresére növelni a mérgező viselkedések észlelését" - állítja a cég a honlapján.

A Spectrum azt állítja, hogy olyan kutatóintézetekkel dolgozott együtt, amelyek jártasak bizonyos káros viselkedések terén, hogy több mint 40 viselkedés-azonosítási modellt hozzon létre. A vállalat Guardian tartalommoderációs platformját adattudósokból és moderátorokból álló csapat építette fel, hogy „támogassa a közösségek megóvását a mérgező hatásoktól."

Egyre nagyobb az igény a gyűlöletbeszéd elleni küzdelem módszereire, mivel lehetetlen, hogy az ember az online forgalom minden részét felügyelje. Dylan Fox, az AssemblyAI vezérigazgatója, egy olyan startup, amely beszédfelismerést biztosít, és ügyfelei is részt vesznek a gyűlölet megfigyelésében. beszéd, mondta a Lifewire-nek egy e-mailes interjúban.

"Csak a Twitteren naponta körülbelül 500 millió tweet érkezik" - tette hozzá. "Még ha egy személy 10 másodpercenként meg tudna nézni egy tweetet, a Twitternek 60 ezer embert kellene alkalmaznia ehhez. Ehelyett intelligens eszközöket, például mesterséges intelligenciát használunk a folyamat automatizálására."

Az emberrel ellentétben a mesterséges intelligencia a nap 24 órájában, a hét minden napján, a hét minden napján működhet, és potenciálisan méltányosabb is lehet, mert úgy van kialakítva, hogy egységesen alkalmazza a szabályokat minden felhasználóra anélkül, hogy bármilyen személyes meggyőződés beavatkozna, mondta Fox. Azoknak is van költségük, akiknek figyelniük és moderálniuk kell a tartalmat.

"Ki lehetnek téve erőszaknak, gyűlöletnek és aljas cselekedeteknek, amelyek károsíthatják az ember mentális egészségét" - mondta.

A Spectrum nem az egyetlen cég, amely automatikusan észleli az online gyűlöletbeszédet. Például a Center Malaysia nemrégiben elindított egy online nyomkövetőt, amelynek célja a malajziai netezők közötti gyűlöletbeszéd megtalálása. Az általuk kifejlesztett Tracker Benci nevű szoftver gépi tanulást használ az online gyűlöletbeszéd kimutatására, különösen a Twitteren.

A kihívás az, hogyan hozzunk létre olyan tereket, ahol az emberek valóban konstruktívan együttműködhetnek egymással.

Adatvédelmi aggályok

A technológiai megoldások, mint például a Spectrum, felvehetik a harcot az online gyűlöletbeszéd ellen, ugyanakkor kérdéseket vetnek fel azzal kapcsolatban is, hogy mennyit kell tenniük a rendfenntartó számítógépeknek.

Vannak következményei a szólásszabadságnak, de nem csak azokra a felszólalókra nézve, akiknek posztjait gyűlöletbeszédként eltávolítanák – mondta Irina Raicu, a Santa Clara Egyetem Markkula Alkalmazott Etikai Központjának internetes etikai igazgatója a Lifewire-nek egy e-mailben. interjú.

"A szólásszabadság nevében történő zaklatás engedélyezése arra késztette az ilyen beszéd célpontjait (különösen, ha bizonyos személyekre irányulnak), hogy abbahagyják a beszédet, és teljesen felhagyjanak a különféle beszélgetésekkel és platformokkal" - mondta Raicu."A kihívás az, hogyan hozzunk létre olyan tereket, ahol az emberek valóban konstruktívan együttműködhetnek egymással."

A mesterséges intelligencia beszédfigyelése nem vethet fel adatvédelmi problémákat, ha a vállalatok nyilvánosan elérhető információkat használnak fel a megfigyelés során, mondta Fox. Ha azonban a vállalat részleteket vásárol a felhasználók más platformokon való interakciójáról, hogy előre azonosítsa a problémás felhasználókat, az adatvédelmi aggályokat vethet fel.

"Az alkalmazástól függően minden bizonnyal egy kicsit szürke terület lehet" - tette hozzá.

Image
Image

Justin Davis, a Spectrum Labs vezérigazgatója egy e-mailben elmondta a Lifewire-nek, hogy a vállalat technológiája 2-5 ezer adatsort képes átnézni a másodperc töredékein belül. "A legfontosabb, hogy a technológia csökkentheti az emberi moderátorok által kitett mérgező tartalom mennyiségét" - mondta.

A forradalom küszöbén állhatunk az emberi beszédet és szöveget online figyelő mesterséges intelligencia terén. Moody szerint a jövőbeni fejlesztések közé tartozik a jobb független és autonóm megfigyelési képesség a gyűlöletbeszéd korábban ismeretlen formáinak vagy bármely más cenzúrázható mintázat azonosítására.

Az AI hamarosan képes lesz felismerni a konkrét beszédminták mintázatait, és összekapcsolni a forrásokat és egyéb tevékenységeiket hírelemzés, nyilvános bejelentések, forgalmi minták elemzése, fizikai megfigyelés és sok más lehetőség révén – tette hozzá.

De egyes szakértők szerint az embereknek mindig számítógéppel kell dolgozniuk a gyűlöletbeszéd megfigyeléséhez.

"Az AI önmagában nem fog működni" - mondta Raicu. "Egy tökéletlen eszköznek kell tekinteni, amelyet más válaszokkal együtt kell használni."

Javítás 2022.01.25.: Justin Davis idézete hozzáadva a végétől az 5. bekezdéshez, hogy tükrözze egy közzététel utáni e-mailt.

Ajánlott: