AI saattaa saada inhimillisen päättelyn kiinni

Sisällysluettelo:

AI saattaa saada inhimillisen päättelyn kiinni
AI saattaa saada inhimillisen päättelyn kiinni
Anonim

Keeawayt

  • Tutkijat ovat luoneet tekniikoita, joiden avulla käyttäjät voivat luokitella koneoppimismallin käyttäytymisen tulokset.
  • Asiantuntijat sanovat, että menetelmä osoittaa, että koneet ovat saavuttamassa ihmisten ajattelukykyjä.
  • Tekoälyn kehitys voi nopeuttaa tietokoneiden kykyä ymmärtää kieltä ja mullistaa tekoälyn ja ihmisten vuorovaikutuksen.
Image
Image

Uusi tekniikka, joka mittaa tekoälyn (AI) päättelykykyä, osoittaa, että koneet saavuttavat ihmisten ajattelukyvyn, asiantuntijat sanovat.

MIT:n ja IBM Researchin tutkijat ovat luoneet menetelmän, jonka avulla käyttäjä voi luokitella koneoppimismallin käyttäytymisen tulokset. Heidän tekniikkansa, nimeltään Shared Interest, sisältää mittareita, jotka vertaavat sitä, kuinka hyvin mallin ajattelu vastaa ihmisten ajattelua.

"Tänään tekoäly kykenee saavuttamaan (ja joissakin tapauksissa ylittämään) ihmisen suorituskyvyn tietyissä tehtävissä, mukaan lukien kuvantunnistus ja kielen ymmärtäminen, " Pieter Buteneers, viestintäyksikön koneoppimisen ja tekoälyn johtaja yritys Sinch, kertoi Lifewirelle sähköpostihaastattelussa. "Luonnollisen kielen käsittelyn (NLP) avulla tekoälyjärjestelmät voivat tulkita, kirjoittaa ja puhua kieliä yhtä hyvin kuin ihmisetkin, ja tekoäly voi jopa säätää murrettaan ja sävyään vastaamaan ihmisiä vertaistensa kanssa."

Keinotekoiset älylaitteet

AI tuottaa usein tuloksia selittämättä, miksi nuo päätökset ovat oikeita. Ja työkalut, jotka auttavat asiantuntijoita ymmärtämään mallin perusteluja, tarjoavat usein vain oivalluksia, vain yhden esimerkin kerrallaan. Tekoälyä opetetaan yleensä käyttämällä miljoonia syötteitä, joten ihmisen on vaikea arvioida tarpeeksi päätöksiä kuvioiden tunnistamiseksi.

Tutkijat sanoivat äskettäisessä artikkelissa, että yhteinen kiinnostus voi auttaa käyttäjää paljastamaan trendejä mallin päätöksenteossa. Ja näiden oivallusten avulla käyttäjä voi päättää, onko malli valmis otettavaksi käyttöön.

"Kehittäessämme yhteistä etua tavoitteemme on pystyä laajentamaan tätä analyysiprosessia, jotta voisitte ymmärtää maailmanlaajuisemmalla tasolla, millainen mallinne käyttäytyminen on", Angie Boggust, paperin toinen kirjoittaja, sanoi lehdistötiedotteessa.

Shared Interest käyttää tekniikkaa, joka näyttää, kuinka koneoppimismalli teki tietyn päätöksen, eli näkyvyysmenetelmiä. Jos malli luokittelee kuvia, näkyvyysmenetelmät korostavat kuvan alueita, jotka ovat tärkeitä mallille sen päätöksenteossa. Shared Interest toimii vertaamalla näkyvyysmenetelmiä ihmisen luomiin merkintöihin.

Tutkijat käyttivät yhteistä kiinnostusta auttaakseen ihotautilääkäriä määrittämään, pitäisikö hänen luottaa koneoppimismalliin, joka on suunniteltu auttamaan syövän diagnosoinnissa ihovaurioista otettujen valokuvien perusteella. Yhteinen kiinnostus antoi ihotautilääkärille mahdollisuuden nähdä nopeasti esimerkkejä mallin oikeista ja vääristä ennusteista. Ihotautilääkäri päätti, että hän ei voinut luottaa malliin, koska se teki liikaa ennusteita, jotka perustuivat kuvien artefakteihin todellisten vaurioiden sijaan.

“Tässä arvo on se, että käyttämällä yhteistä kiinnostusta voimme nähdä nämä mallit ilmenevän mallimme käyttäytymisestä. Noin puolessa tunnissa ihotautilääkäri pystyi päättämään, luottaako malliin ja ottaako se käyttöön vai ei”, Boggust sanoi.

Mallin päätöksen perustelut ovat tärkeitä sekä koneoppimisen tutkijalle että päätöksentekijälle.

Edistyksen mittaaminen

MIT:n tutkijoiden työ voi olla merkittävä askel eteenpäin tekoälyn edistymisessä kohti ihmistason älykkyyttä, Ben Hagag, koneoppimisalgoritmeja käyttävän yrityksen Darrow'n tutkimuspäällikkö, kertoi Lifewirelle sähköpostihaastattelussa..

"Mallin päätöksen perustelut ovat tärkeitä sekä koneoppimisen tutkijalle että päätöksentekijälle", Hagag sanoi. "Entinen haluaa ymmärtää, kuinka hyvä malli on ja kuinka sitä voidaan parantaa, kun taas jälkimmäinen haluaa kehittää luottamusta malliin, joten heidän on ymmärrettävä, miksi tuo tulos ennustettiin."

Mutta Hagag varoitti, että MIT-tutkimus perustuu olettamukseen, että ymmärrämme tai pystymme kommentoimaan ihmisen ymmärrystä tai päättelyä.

"On kuitenkin mahdollista, että tämä ei ehkä ole tarkkaa, joten tarvitaan enemmän työtä ihmisen päätöksenteon ymmärtämiseksi", Hagag lisäsi.

Image
Image

Tekoälyn kehitys voi nopeuttaa tietokoneiden kykyä ymmärtää kieltä ja mullistaa tekoälyn ja ihmisten vuorovaikutuksen, Buteneers sanoi. Chatbotit voivat ymmärtää satoja kieliä kerrallaan, ja tekoälyavustajat voivat skannata tekstiosia löytääkseen vastauksia kysymyksiin tai sääntöjenvastaisuuksiin.

"Jotkin algoritmit voivat jopa tunnistaa, milloin viestit ovat vilpillisiä, mikä voi auttaa yrityksiä ja kuluttajia karsimaan pois roskapostiviestit", Buteneers lisäsi.

Mutta, Buteneers sanoi, tekoäly tekee silti joitakin virheitä, joita ihmiset eivät koskaan tekisi. "Vaikka jotkut ovat huolissaan siitä, että tekoäly korvaa ihmisten työt, todellisuus on, että tarvitsemme aina tekoälybottien rinnalla työskenteleviä ihmisiä auttamaan pitämään heidät kurissa ja pitämään nämä virheet loitolla ja säilyttämään inhimillisen kosketuksen liiketoiminnassa", hän lisäsi.

Suositeltava: