Szakértők szerint a Facebook Deepfake Tech nem fog megmenteni minket

Tartalomjegyzék:

Szakértők szerint a Facebook Deepfake Tech nem fog megmenteni minket
Szakértők szerint a Facebook Deepfake Tech nem fog megmenteni minket
Anonim

A legfontosabb elvitelek

  • Mivel a mélyhamisítások egyre könnyebben elkészíthetők, az észlelésük új és továbbfejlesztett módjai prioritássá váltak.
  • A Facebook mélyhamisítási technológiája fordított gépi tanulást használ annak felderítésére, hogy egy videó mélyhamisítás-e vagy sem.
  • A szakértők szerint a blokklánc technológia használata lenne a legjobb módja annak megállapítására, hogy egy videó valódi-e vagy sem, mivel a módszer kontextuális adatokon alapul.
Image
Image

A Facebook bízik gépi tanulási modelljében a mélyhamisítások elleni küzdelemben, de a szakértők szerint a gépi tanulás önmagában nem ment meg minket attól, hogy a mélyhamisítások átverjék.

Az olyan cégek, mint a Facebook, a Microsoft és a Google, mind azon dolgoznak, hogy leküzdjék a mélyhamisításokat az interneten és a közösségi hálózatokon. Bár a módszerek különböznek, van egy lehetséges bolondbiztos módszer ezeknek a hamis videóknak a felismerésére: a blokkláncok.

„A [Blockchains] rengeteg lehetőséget kínál a mélyhamisítás érvényesítésére oly módon, hogy az a legjobb érvényesítési forma, amit látok.” Stephen Wolfram, a Wolfram Research alapítója és vezérigazgatója, valamint az A New Kind of szerzője Science, mondta a Lifewire-nek telefonon.

A Facebook mélyhamisító technikája

A Deepfake technológia gyorsan fejlődött az elmúlt néhány évben. A félrevezető videók gépi tanulási módszereket használnak, hogy például valaki arcát rávigyék egy másik személy testére, megváltoztassák a háttérfeltételeket, hamis ajakszinkronizálást stb. Az ártalmatlan paródiáktól kezdve a hírességek vagy közéleti személyiségek olyasmit mondanak vagy csinálnak, amit nem tették meg.

A szakértők szerint a technológia gyorsan fejlődik, és a mélyhamisítások csak még meggyőzőbbek lesznek (és könnyebben létrehozhatók), ahogy a technológia egyre szélesebb körben elérhető és innovatívabb lesz.

Image
Image

A Facebook a közelmúltban a Michigan Állami Egyetemmel együttműködve több betekintést engedett a mélyhamisítás-felderítő technológiájába. A közösségi hálózat azt állítja, hogy az egyetlen mesterséges intelligencia által generált képtől a generatív modellig támaszkodik a visszafejtésre.

A Facebookkal dolgozó kutatók azt mondták, hogy a módszer a mélyhamisítás generálásához használt mesterséges intelligencia-modell mögötti egyedi minták feltárásán alapul.

„Ha általánosítjuk a képtulajdonítást a nyílt halmazú felismerésre, több információra következtethetünk a mélyhamisítás létrehozásához használt generatív modellről, amely túlmutat azon, hogy felismerjük, hogy korábban nem látták. Ha pedig a mélyhamisítások gyűjteményének mintái között keresünk hasonlóságokat, azt is meg tudjuk állapítani, hogy egy képsorozat egyetlen forrásból származik-e” – írták Xi Yin és Tan Hassner kutatók a Facebook blogbejegyzésében a mélyhamisítási módszerről.

Image
Image

Wolfram szerint logikus, hogy gépi tanulást használjon egy fejlett mesterséges intelligencia-modell (deephame) észlelésére. Azonban mindig van hely a technológia megtévesztésére.

„Egyáltalán nem vagyok meglepve, hogy létezik egy megfelelő gépi tanulási módszer [a mélyhamisítások észlelésére]” – mondta Wolfram. „A kérdés csak az, hogy ha elég erőfeszítést teszel, be tudod csapni? Biztos vagyok benne, hogy képes vagy.”

A mélyhamisítás elleni küzdelem más módon

Ehelyett Wolfram azt mondta, hogy szerinte a blokklánc használata lenne a legjobb megoldás bizonyos típusú mélyhamisítások pontos észlelésére. Véleménye a blokklánc használatáról a gépi tanulással szemben 2019-ig nyúlik vissza, és azt mondta, hogy végső soron a blokklánc-megközelítés pontosabb megoldást nyújthat a mélyhamisítási problémánkra.

„Arra számítok, hogy a kép- és videónézők rutinszerűen ellenőrzik a blokkláncokat (és az „adatháromszögelési számításokat”), kicsit úgy, ahogy a webböngészők most ellenőrzik a biztonsági tanúsítványokat” – írta Wolfram a Scientific American-ban megjelent cikkében.

Mivel a blokkláncok blokkokban tárolják az adatokat, amelyeket aztán kronológiai sorrendben láncolnak össze, és mivel a decentralizált blokkláncok megváltoztathatatlanok, a bevitt adatok visszafordíthatatlanok.

A kérdés csak az, ha elég erőfeszítést tesz, be tudja-e csapni? Biztos vagyok benne, hogy képes vagy.

Wolfram elmagyarázta, hogy ha egy videót blokkláncba helyez, láthatja a felvétel idejét, helyét és egyéb kontextuális információkat, amelyek segítségével megállapíthatja, hogy módosult-e bármilyen módon.

„Általában elmondható, hogy minél több olyan metaadat van, amely kontextualizálja a képet vagy a videót, annál valószínűbb, hogy meg tudja mondani” – mondta. „Nem hamisíthatod az időt a blokkláncon.”

Wolfram azonban azt mondta, hogy az alkalmazott módszer – legyen az gépi tanulás vagy blokklánc használata – attól függ, hogy milyen típusú mélyhamisítás ellen próbál védekezni (vagyis egy videó Kim Kardashianról, aki hülyeséget mond, vagy egy videó egy politikus nyilatkozatot vagy javaslatot tesz).

„A blokklánc-megközelítés védelmet nyújt bizonyos mélyhamisítások ellen, ahogy a gépi tanulási képfeldolgozás is véd bizonyos mélyhamisítások ellen” – mondta.

A lényeg, úgy tűnik, mindannyiunk ébersége, amikor a közelgő mély hamis özönvízzel kell leküzdeni.

Ajánlott: