Facebookin Deepfake Tech ei pelasta meitä, asiantuntijat sanovat

Sisällysluettelo:

Facebookin Deepfake Tech ei pelasta meitä, asiantuntijat sanovat
Facebookin Deepfake Tech ei pelasta meitä, asiantuntijat sanovat
Anonim

Keeawayt

  • Kun syväväärennöksiä on helpompi tehdä, uusista ja parannetuista tavoista havaita ne ovat tulleet etusijalle.
  • Facebookin deepfake-spotting-tekniikka käyttää käänteistä koneoppimista selvittääkseen, onko video syväväärennös vai ei.
  • Asiantuntijat sanovat, että lohkoketjuteknologian käyttäminen olisi paras tapa nähdä, onko video todellinen vai ei, koska menetelmä perustuu kontekstitietoihin.
Image
Image

Facebook luottaa koneoppimismalliinsa syväväärennösten torjumiseksi, mutta asiantuntijat sanovat, että koneoppiminen yksinään ei pelasta meitä syväväärennösten huijauksesta.

Yritykset, kuten Facebook, Microsoft ja Google, pyrkivät kaikki torjumaan syväväärennösten leviämistä verkossa ja sosiaalisissa verkostoissa. Vaikka menetelmät vaihtelevat, on olemassa yksi mahdollinen idioottivarma tapa havaita nämä väärät videot: lohkoketjut.

“Science kertoi Lifewirelle puhelimessa.

Facebookin Deepfake-Spotting Tech

Deepfake-tekniikka on kasvanut nopeasti muutaman viime vuoden aikana. Harhaanjohtavissa videoissa käytetään koneoppimismenetelmiä esimerkiksi kasvojen asettamiseen toisen kehon päälle, taustaolosuhteiden muuttamiseen, väärennettyjen huulien synkronointia ja paljon muuta. Ne vaihtelevat harmittomista parodioista julkkisten tai julkisuuden henkilöiden saamiseen sanomaan tai tekemään jotain, mitä he eivät ole tehneet.

Asiantuntijat sanovat, että tekniikka kehittyy nopeasti ja että syväväärennöksistä tulee vain vakuuttavampia (ja helpompia luoda), kun teknologiasta tulee laajemmin saatavilla ja innovatiivisempi.

Image
Image

Facebook antoi äskettäin enemmän tietoa syväväärennösten havaitsemisteknologiastaan yhteistyössä Michigan State Universityn kanssa. Sosiaalinen verkosto kertoo käyttävänsä käänteistekniikkaa yhdestä tekoälyn luomasta kuvasta sen tuottamiseen käytettyyn generatiiviseen malliin.

Facebookin kanssa työskennelleet tutkijat sanoivat, että menetelmä perustuu syvän väärennöksen luomiseen käytetyn tekoälymallin ainutlaatuisten kuvioiden paljastamiseen.

“Yleistämällä kuvien attribuutio avoimeen tunnistukseen, voimme päätellä enemmän tietoa generatiivisesta mallista, jota käytetään luomaan syväväärennös, joka ylittää sen tunnistamisen, ettei sitä ole ennen nähty. Ja jäljittämällä yhtäläisyyksiä kokoelman syväväärennösten malleista, voimme myös kertoa, onko kuvasarja peräisin yhdestä lähteestä”, tutkijat Xi Yin ja Tan Hassner kirjoittivat Facebookin blogikirjoituksessaan sen deepfake-spotting -menetelmästä.

Image
Image

Wolfram sanoo, että on järkevää käyttää koneoppimista havaitaksesi edistyneen tekoälymallin (deepfake). Teknologiaa on kuitenkin aina huijata.

"En ole ollenkaan yllättynyt siitä, että on olemassa kunnollinen koneoppimistapa [havainnoida syväväärennöksiä]", Wolfram sanoi. "Ainoa kysymys on, jos ponnistelet tarpeeksi, voitko huijata sen? Olen varma, että pystyt.”

Taistele Deepfakesia vastaan eri tavalla

Sen sijaan Wolfram sanoi, että hän uskoo, että lohkoketjun käyttö olisi paras tapa havaita tarkasti tietyntyyppiset syväväärennökset. Hänen mielipiteensä lohkoketjun käytöstä koneoppimisen sijaan juontaa juurensa vuoteen 2019, ja hän sanoi, että viime kädessä lohkoketju-lähestymistapa voi tarjota tarkemman ratkaisun syväfake-ongelmaamme.

"Odotin, että kuvien ja videoiden katsojat voisivat rutiininomaisesti tarkistaa lohkoketjujen (ja "datan kolmiomittauslaskelmien") var alta, vähän samalla tavalla kuin verkkoselaimet nyt tarkistavat suojausvarmenteita", Wolfram kirjoitti Scientific American -lehdessä julkaistussa artikkelissa.

Koska lohkoketjut tallentavat tiedot lohkoihin, jotka sitten ketjutetaan yhteen kronologisessa järjestyksessä, ja koska hajautetut lohkoketjut ovat muuttumattomia, syötetyt tiedot ovat peruuttamattomia.

Ainoa kysymys on, jos ponnistelet tarpeeksi, voitko huijata sen? Olen varma, että pystyt.

Wolfram selitti, että laittamalla videon lohkoketjuun, voit nähdä sen kuvausajan, sijainnin ja muita kontekstuaalisia tietoja, joiden avulla voit kertoa, onko videota muutettu millään tavalla.

"Yleensä, jos sinulla on enemmän metadataa, joka mahdollistaa kuvan tai videon kontekstualisoinnin, sitä todennäköisemmin pystyt kertomaan sen", hän sanoi. "Et voi väärentää aikaa lohkoketjussa."

Wolfram kuitenkin sanoi, että käytetty menetelmä – olipa kyseessä koneoppiminen tai lohkoketjun käyttö – riippuu syvän väärennöksen tyypistä, jota vastaan yrität suojautua (eli video Kim Kardashianista sanomassa jotain typerää tai video poliitikko antaa lausunnon tai ehdotuksen).

"Blockchain-lähestymistapa suojaa tietyiltä syvällisiltä väärennöksiltä, aivan kuten koneoppiva kuvankäsittely suojaa tietyiltä syvällisiltä väärennöksiltä", hän sanoi.

Näyttää siltä, että meidän kaikkien valppaus taistelee tulevaa syvää valetulvaa vastaan.

Suositeltava: