Hogyan figyelheti meg a mesterséges intelligencia veszélyes utódait

Tartalomjegyzék:

Hogyan figyelheti meg a mesterséges intelligencia veszélyes utódait
Hogyan figyelheti meg a mesterséges intelligencia veszélyes utódait
Anonim

A legfontosabb elvitelek

  • Egy új tanulmány azt állítja, hogy a mesterséges intelligencia képes meghatározni, hogy mely kutatási projektek igényelhetnek több szabályozást, mint mások.
  • Része annak a növekvő erőfeszítésnek, hogy felfedezzék, milyen típusú mesterséges intelligencia lehet veszélyes.
  • Egy szakértő szerint az AI valódi veszélye az, hogy elnémíthatja az embereket.

Image
Image

A mesterséges intelligencia (AI) számos előnnyel jár, de néhány lehetséges veszélyt is rejt magában. És most a kutatók egy módszert javasoltak számítógépes alkotásaik szemmel tartására.

Egy nemzetközi csapat azt állítja egy új tanulmányában, hogy a mesterséges intelligencia meg tudja határozni, hogy mely típusú kutatási projektek igényelhetnek nagyobb szabályozást, mint mások. A tudósok olyan modellt használtak, amely a biológia és a matematika fogalmait ötvözi, és része annak az egyre növekvő erőfeszítésnek, hogy felfedezzék, milyen típusú mesterséges intelligencia lehet veszélyes.

„Természetesen bár felmerülhet a mesterséges intelligencia „sci-fi” veszélyes használata, ha így döntünk […], az AI-t nem maga az AI teszi veszélyessé, hanem [hogyan használjuk].” Thierry Rayna, a francia École Polytechnique Technológia a változásért tanszékének elnöke mondta el a Lifewire-nek egy e-mailes interjúban. "A mesterséges intelligencia megvalósítása lehet kompetencianövelő (például megerősíti az ember/dolgozó készségeinek és tudásának relevanciáját), vagy kompetenciaromboló, azaz a mesterséges intelligencia a meglévő készségeket és tudást kevésbé hasznossá vagy elavulttá teszi."

Fülek vezetése

A közelmúltban megjelent cikk szerzői egy bejegyzésben azt írták, hogy modellt építettek fel hipotetikus AI-versenyek szimulálására. Több százszor lefuttatták a szimulációt, hogy megpróbálják megjósolni, hogyan működhetnek a valós AI-versenyek.

"A változó, amelyet különösen fontosnak találtunk, a verseny "hossza" volt – az az idő, ami alatt a szimulált versenyeink elérik céljukat (egy funkcionális AI-terméket)" - írták a tudósok. "Amikor a mesterséges intelligencia versenyei gyorsan elérték céljukat, azt tapaszt altuk, hogy mindig azok a versenyzők nyertek, akikről azt kódoltuk, hogy mindig figyelmen kívül hagyják a biztonsági óvintézkedéseket."

Ezzel szemben a kutatók azt találták, hogy a hosszú távú AI-projektek nem olyan veszélyesek, mert nem mindig azok nyertek, akik figyelmen kívül hagyták a biztonságot. „Tekintettel ezekre az eredményekre, fontos lesz, hogy a szabályozó hatóságok megállapítsák, mennyi ideig tartanak a különböző mesterséges intelligencia-fajok, és eltérő szabályozást alkalmaznak a várható időkeretük alapján” – írták. "Eredményeink azt sugallják, hogy egy szabály az összes mesterséges intelligencia versenyre – a sprinttől a maratonig – olyan eredményekhez vezet, amelyek távolról sem ideálisak."

David Zhao, a Coda Strategy, a mesterséges intelligencia témakörében tanácsadó cég ügyvezető igazgatója a Lifewire-nek adott e-mailes interjújában azt mondta, hogy a veszélyes mesterséges intelligencia azonosítása nehéz lehet. A kihívások abban rejlenek, hogy a mesterséges intelligencia modern megközelítései mély tanulási megközelítést alkalmaznak.

"Tudjuk, hogy a mély tanulás jobb eredményeket hoz számos felhasználási esetben, például képérzékelés vagy beszédfelismerés esetén" - mondta Zhao. "Az emberek számára azonban lehetetlen megérteni, hogyan működik egy mély tanulási algoritmus, és hogyan állítja elő a kimenetét. Ezért nehéz megmondani, hogy egy jó eredményeket produkáló mesterséges intelligencia veszélyes-e, mert az emberek nem képesek megérteni, mi történik."

A szoftverek „veszélyesek” lehetnek, ha olyan kritikus rendszerekben használják, amelyeknek vannak olyan sebezhetőségei, amelyeket rossz szereplők kihasználhatnak, vagy hibás eredményeket produkálhatnak – mondta Matt Shea, a MixMode mesterséges intelligenciacég stratégiai igazgatója e-mailben. Hozzátette, hogy a nem biztonságos mesterséges intelligencia az eredmények helytelen osztályozását, adatvesztést, gazdasági hatást vagy fizikai károkat is eredményezhet.

"A hagyományos szoftverekkel a fejlesztők olyan algoritmusokat kódolnak, amelyeket egy személy megvizsgálhat, hogy rájöjjön, hogyan lehet a forráskódból kijavítani a sebezhetőséget vagy kijavítani a hibát" - mondta Shea."A mesterséges intelligencia esetében azonban a logika nagy része magából az adatokból jön létre, amelyeket olyan adatstruktúrákba kódolnak, mint a neurális hálózatok és hasonlók. Ennek eredményeként olyan rendszerek jönnek létre, amelyek "fekete dobozok", amelyeket nem lehet megvizsgálni a sebezhetőségek felkutatása és javítása érdekében. mint a normál szoftver."

Veszélyek?

A szakértők szerint a mesterséges intelligencia olyan filmekben, mint a Terminátor, gonosz erőként szerepel, amely el akarja pusztítani az emberiséget, a valódi veszélyek prózaibbak lehetnek. Rayna például azt sugallja, hogy a mesterséges intelligencia butábbá tehet minket.

„Ez megfoszthatja az embereket az agy képzésétől és a szakértelem fejlesztésétől” – mondta. „Hogyan válhat a kockázati tőke szakértőjévé, ha nem tölti ideje nagy részét startup-jelentkezések olvasásával? Ami még rosszabb, az AI köztudottan „fekete doboz”, és kevéssé magyarázható. Ha nem tudjuk, miért hoztak egy adott mesterséges intelligencia-döntést, nagyon keveset lehet tanulni belőle, ahogyan az sem válhat szakértő futóvá, ha egy Segway-n körbejárja a stadiont."

Nehéz megmondani, hogy egy jó eredményeket produkáló mesterséges intelligencia veszélyes-e, mert az emberek nem képesek megérteni, mi történik.

Talán a mesterséges intelligencia legközvetlenebb fenyegetése az, hogy elfogult eredményeket tud nyújtani – mondta Lyle Solomon, az MI jogi vonatkozásaival foglalkozó ügyvéd egy e-mail-interjúban.

"A mesterséges intelligencia segíthet a társadalmi megosztottság elmélyítésében. A mesterséges intelligencia alapvetően az emberektől gyűjtött adatokból épül fel" - tette hozzá Solomon. "[De] a hatalmas adat ellenére minimális részhalmazokat tartalmaz, és nem tartalmazza azt, amit mindenki gondol. Így a megjegyzésekből, nyilvános üzenetekből, véleményekből stb. gyűjtött, eredendő elfogultságokkal rendelkező adatok arra késztetik az MI-t, hogy felerősítsék a diszkriminációt és a gyűlöletet."

Ajánlott: