A legfontosabb elvitelek
- A kutatók olyan technikákat hoztak létre, amelyek segítségével a felhasználók rangsorolhatják a gépi tanulási modell viselkedésének eredményeit.
- A szakértők szerint a módszer azt mutatja, hogy a gépek utolérik az emberek gondolkodási képességeit.
- A mesterséges intelligencia fejlődése felgyorsíthatja a számítógépek nyelvértési képességének fejlődését, és forradalmasíthatja a mesterséges intelligencia és az emberek interakcióját.
A mesterséges intelligencia (AI) érvelési erejét mérő új technika azt mutatja, hogy a gépek gondolkodási képességeik terén utolérik az embereket, mondják a szakértők.
Az MIT és az IBM Research kutatói olyan módszert hoztak létre, amely lehetővé teszi a felhasználó számára, hogy rangsorolja a gépi tanulási modell viselkedésének eredményeit. A Shared Interest nevű technikájuk olyan mérőszámokat tartalmaz, amelyek összehasonlítják, hogy egy modell gondolkodása mennyire egyezik az emberekével.
"Ma a mesterséges intelligencia képes elérni (és bizonyos esetekben meg is haladja) az emberi teljesítményt bizonyos feladatokban, beleértve a képfelismerést és a nyelvértést." Pieter Buteneers, a gépi tanulás és a kommunikációs mesterséges intelligencia mérnöki igazgatója a Sinch cég, mondta a Lifewire-nek egy e-mailes interjúban. "A természetes nyelvi feldolgozás (NLP) segítségével a mesterséges intelligencia rendszerek képesek a nyelvek értelmezésére, írására és beszédére éppúgy, mint az emberekhez, és az AI még a dialektusát és hangszínét is be tudja állítani, hogy igazodjon emberi társaihoz."
Mesterséges okosságok
A mesterséges intelligencia gyakran anélkül hoz eredményt, hogy megmagyarázná, miért helyesek ezek a döntések. Azok az eszközök pedig, amelyek segítenek a szakértőknek megérteni egy modell érvelését, gyakran csak betekintést nyújtanak, egyszerre csak egy példát. A mesterséges intelligencia képzése általában több millió adatbevitel felhasználásával történik, ami megnehezíti az ember számára, hogy elegendő döntést tudjon kiértékelni a minták azonosításához.
Egy közelmúltban megjelent tanulmányban a kutatók azt mondták, hogy a Shared Interest segíthet a felhasználónak feltárni a modellek döntéshozatalának trendjeit. Ezek a betekintések lehetővé teszik a felhasználó számára, hogy eldöntse, hogy egy modell készen áll-e a bevezetésre.
„A Közös érdeklődés fejlesztése során az a célunk, hogy növeljük ezt az elemzési folyamatot, hogy Ön globálisabb szinten is megérthesse, mi a modellje viselkedése” – Angie Boggust, a cikk társszerzője., mondta a sajtóközlemény.
A Shared Interest egy olyan technikát használ, amely megmutatja, hogyan hozott egy gépi tanulási modell egy adott döntést, ezt nevezik feltűnési módszereknek. Ha a modell képeket osztályoz, a szembetűnőségi módszerek kiemelik a kép azon területeit, amelyek fontosak a modell számára, amikor döntést hoz. A Shared Interest úgy működik, hogy összehasonlítja a szembetűnő módszereket az ember által generált megjegyzésekkel.
A kutatók a közös érdeklődési kört felhasználva segítettek a bőrgyógyásznak eldönteni, hogy megbíznia kell-e egy olyan gépi tanulási modellben, amely a bőrelváltozásokról készült fényképek alapján segít a rák diagnosztizálásában. A Megosztott érdeklődés lehetővé tette a bőrgyógyász számára, hogy gyorsan példákat lásson a modell helyes és helytelen előrejelzéseire. A bőrgyógyász úgy döntött, hogy nem bízhat a modellben, mert túl sok jóslatot tett a képi műtermékek, nem pedig a tényleges elváltozások alapján.
„Az érték itt az, hogy a Megosztott érdeklődést használva láthatjuk, hogy ezek a minták megjelennek modellünk viselkedésében. Körülbelül fél óra alatt a bőrgyógyász el tudta dönteni, hogy megbízik-e a modellben vagy sem, és be kell-e helyezni” – mondta Boggust.
A modell döntésének indoklása fontos mind a gépi tanulással foglalkozó kutató, mind a döntéshozó számára.
Előrehaladás mérése
Az MIT kutatóinak munkája jelentős előrelépést jelenthet a mesterséges intelligencia emberi szintű intelligencia felé történő fejlődésében – mondta el Ben Hagag, a gépi tanulási algoritmusokat használó Darrow vállalat kutatási vezetője egy e-mailben a Lifewire-nek..
„A modell döntésének indoklása fontos mind a gépi tanulás kutatója, mind a döntéshozó számára” – mondta Hagag. „Az előbbi meg akarja érteni, hogy mennyire jó a modell, és hogyan lehet javítani, míg az utóbbi a modell iránti bizalom érzését szeretné kifejleszteni, ezért meg kell érteniük, miért jósolták ezt a kimenetet.”
Hagag azonban figyelmeztetett arra, hogy az MIT-kutatás azon a feltételezésen alapul, hogy megértjük vagy megjegyzésekkel látjuk el az emberi megértést vagy az emberi gondolkodást.
„Fennáll azonban annak a lehetősége, hogy ez nem pontos, ezért további munkára van szükség az emberi döntéshozatal megértéséhez” – tette hozzá Hagag.
A mesterséges intelligencia fejlődése felgyorsíthatja a számítógépek nyelvértési képességének fejlődését, és forradalmasíthatja a mesterséges intelligencia és az emberek interakcióját, mondta Buteneers. A chatbotok egyszerre több száz nyelvet képesek megérteni, az AI-asszisztensek pedig szövegrészeket szkennelhetnek a kérdésekre vagy a szabálytalanságokra adott válaszokért.
„Egyes algoritmusok még azt is azonosítani tudják, ha az üzenetek hamisak, ami segíthet a vállalkozásoknak és a fogyasztóknak a spam üzenetek kiszűrésében” – tette hozzá Buteneers.
De – mondta Buteneers – a mesterséges intelligencia még mindig elkövet néhány olyan hibát, amit az ember soha nem. „Bár egyesek aggódnak amiatt, hogy a mesterséges intelligencia felváltja az emberi munkát, a valóság az, hogy mindig szükségünk lesz olyan emberekre, akik mesterséges intelligenciabotokkal dolgoznak, hogy kordában tartsák őket, és távol tartsák ezeket a hibákat, miközben megőrizzük az emberi kapcsolatot az üzleti életben” – tette hozzá.