Ne bízzon semmiben, amit a weben lát, mondják szakértők

Tartalomjegyzék:

Ne bízzon semmiben, amit a weben lát, mondják szakértők
Ne bízzon semmiben, amit a weben lát, mondják szakértők
Anonim

Kulcs elvitelek

  • Az új kutatás kimutatta, hogy az emberek nem tudják elkülöníteni a mesterséges intelligencia által generált képeket a valódiaktól.
  • A résztvevők megbízhatóbbnak ítélték az AI által generált képeket.
  • A szakértők úgy vélik, hogy az embereknek nem kellene többé bízniuk abban, amit az interneten látnak.
Image
Image

A „látni annyi, mint hinni” mondás már nem aktuális, ha az internetről van szó, és a szakértők szerint ez egyhamar nem lesz jobb.

Egy közelmúltban végzett tanulmány megállapította, hogy a mesterséges intelligencia (AI) által generált arcképek nemcsak rendkívül fotorealisztikusak, hanem erényesebbnek is tűntek, mint a valódi arcok.

"A mesterséges intelligencia által szintetizált arcok fotorealizmusának értékelése azt mutatja, hogy a szintetikus motorok áthaladtak a rejtélyes völgyön, és képesek megkülönböztethetetlen és megbízhatóbb arcokat létrehozni, mint a valódi arcok" - állapították meg a kutatók.

Az a személy nem létezik

A kutatók, Dr. Sophie Nightingale a Lancaster Egyetemről és Hany Farid professzor a Kaliforniai Egyetemről (Berkeley) végezték el a kísérleteket, miután elismerték a mély hamisítványok széles körben nyilvánosságra hozott fenyegetéseit, az online csalásoktól kezdve az élénkítőig. dezinformációs kampányok.

"Talán a legveszélyesebb az a következmény, hogy egy digitális világban, amelyben bármilyen kép vagy videó hamisítható, megkérdőjelezhető minden kényelmetlen vagy nemkívánatos felvétel hitelessége" - állítják a kutatók.

Azzal érveltek, hogy bár történt előrelépés a mélyen hamis tartalom észlelésére szolgáló automatikus technikák kifejlesztésében, a jelenlegi technikák nem elég hatékonyak és pontosak ahhoz, hogy lépést tartsanak az online feltöltött új tartalom folyamatos áramlásával. Ez azt jelenti, hogy az online tartalmak fogyasztóira van bízva, hogy szétválasztják az igazit a hamistól – javasolja a páros.

Jelle Wieringa, a KnowBe4 biztonságtudatossági szószólója egyetértett. E-mailben elmondta a Lifewire-nek, hogy a valódi mélyhamisítások elleni küzdelem rendkívül nehéz speciális technológia nélkül. "[Az enyhítő technológiák] drágák lehetnek, és nehezen implementálhatók a valós idejű folyamatokba, gyakran csak utólag észlelik a mélyhamisítást."

Ezzel a feltételezéssel a kutatók kísérletsorozatot végeztek annak megállapítására, hogy az emberi résztvevők képesek-e megkülönböztetni a legmodernebb szintetizált arcokat a valódi arcoktól. Tesztjeik során azt találták, hogy a hamisítványok felismerését segítő képzés ellenére a pontosság csak 59%-ra javult, szemben a képzés nélküli 48%-kal.

Ez arra késztette a kutatókat, hogy megvizsgálják, vajon a megbízhatóság észlelése segíthet-e az embereknek a mesterséges képek azonosításában. Egy harmadik tanulmányban arra kérték a résztvevőket, hogy értékeljék az arcok megbízhatóságát, de kiderült, hogy a szintetikus arcok átlagos értékelése 7.7%-kal megbízhatóbb, mint a valódi arcok átlagos értékelése. Lehet, hogy ez a szám nem tűnik soknak, de a kutatók azt állítják, hogy statisztikailag szignifikáns.

Deeper Fakes

A mély hamisítványok már korábban is komoly aggodalomra adnak okot, és most a vizeket tovább sárosította ez a tanulmány, amely szerint az ilyen jó minőségű hamis képek egy teljesen új dimenziót adhatnak az online csalásokhoz, például azáltal, hogy elősegítik a további létrehozását. meggyőző online hamis profilok.

"A kiberbiztonság hajtóereje az, hogy az emberek bíznak a technológiákban, folyamatokban és az emberekben, akik megpróbálják megőrizni őket biztonságban" - nyilatkozta Wieringa. "A mély hamisítványok, különösen, ha fotorealisztikussá válnak, aláássák ezt a bizalmat, és így a kiberbiztonság elfogadását és elfogadását. Ez oda vezethet, hogy az emberek bizalmatlanok lesznek mindennel szemben, amit észlelnek."

Image
Image

Chris Hauk, a Pixel Privacy fogyasztói adatvédelmi bajnoka egyetértett. Egy rövid e-mail-váltásban elmondta a Lifewire-nek, hogy a fotorealisztikus mélyhamisítás „pusztítást” okozhat az interneten, különösen manapság, amikor mindenféle fiókhoz hozzá lehet férni fényképes azonosító technológiával.

Javító intézkedés

Szerencsére Greg Kuhn, a Prosegur Security IoT-ért felelős igazgatója azt mondja, hogy vannak olyan eljárások, amelyekkel elkerülhető az ilyen csalárd hitelesítés. E-mailben elmondta a Lifewire-nek, hogy a mesterséges intelligencia-alapú hitelesítési rendszerek egy ellenőrzött személyt egy listához hasonlítanak, de sok esetben beépített biztosítékok vannak beépítve az "élőképesség" ellenőrzésére.

"Az ilyen típusú rendszerek megkövetelhetik és irányíthatják a felhasználót bizonyos feladatok végrehajtásában, például mosolyogva vagy balra, majd jobbra fordítva a fejét. Ezeket a dolgokat a statikusan generált arcok nem tudták végrehajtani" - osztotta meg Kuhn.

A kutatók irányelveket javasoltak létrehozásuk és terjesztésük szabályozására, hogy megvédjék a nyilvánosságot a szintetikus képektől. Kezdetnek azt javasolják, hogy magukba a kép- és videószintézis hálózatokba építsenek be mélyen beépült vízjeleket, hogy minden szintetikus adathordozó megbízhatóan azonosítható legyen.

Addig Paul Bischoff, a Comparitech adatvédelmi szószólója és az infosec kutatás szerkesztője azt mondja, hogy az emberek magukra vannak."Az embereknek meg kell tanulniuk, hogy ne bízzanak az online arcokban, ahogy (remélhetőleg) mindannyian megtanultuk, hogy ne bízzanak az e-mailjeinkben megjelenő megjelenített nevekben" - mondta Bischoff e-mailben a Lifewire-nek.

Ajánlott: