Keeawayt
- Amazonin Alexa-ääniavustaja voi kopioida äänen jopa minuutin äänellä.
- Voit pyytää Alexaa lukemaan tarinan kuolleen vanhemman äänellä.
- Se on sama idea kuin syvät väärennökset, käytetään vain hyvän voimin.
Amazon Alexan uusin temppu on oppia matkimaan kuolleen rakkaan ääntä, jotta he voivat puhua sinulle haudan takaa.
Alexa tarvitsee vain minuutin puhuttua ääntä jäljitelläkseen ääntä vakuuttavasti. Amazon pitää sitä lohduttavana ominaisuutena, joka voi saada sinut kosketuksiin rakkaiden kanssa, mutta se voi myös olla melko kammottava kokemus. Ja se osoittaa, kuinka helppoa on tehdä syvää väärennettyä ääntä, joka riittää huijaamaan meidät, vaikka ääni olisikin sellainen, jonka tunnemme erittäin hyvin.
"Amazon on ehdottomasti saapunut melko ainutlaatuiselle ja oudolle alueelle ilmoituksellaan, että Alexa voisi pian oppia ja sitten pian käyttää kuolleiden sukulaisten ääntä", Bill Mann, Restore Privacyn tietosuojaasiantuntija kertoi. Lifewire sähköpostitse. "Joille ihmisille se ei ole ollenkaan kammottavaa. Itse asiassa se voi olla melko koskettavaa."
Ghost in the Machine
Osana vuotuista re:MARS-konferenssiaan Amazon esittelee ominaisuuden lyhyessä videossa. Siinä lapsi kysyy Alex alta, voiko isoäiti jatkaa lukemista hänelle "The Wizard of Oz", joka on jokaisen lapsen suosikki pääpuheenvuoroihin sopiva julkisesti käytettävissä oleva teos. Ja se on aika koskettava hetki. On vaikea olla tuntematta inhimillisiä tunteita, kun mummo alkaa lukea.
"Ihmiset kamppailevat kuolevaisuutta vastaan, varsinkin länsimaisessa kulttuurissa. Olemme vuosisatojen ajan yrittäneet löytää tapoja kuolleiden muistoksi kuolemannaamioista, hiuslohkoista vanhoihin valokuviin ja vanhojen elokuvien katseluun, " Andrew Selepak, sosiaalisen median professori Floridan yliopistosta, kertoi Lifewirelle sähköpostitse. "Deepfakes käyttää viimeisintä teknologiaa luodakseen uuden kuolinaamion kuolleen rakkaasta. Mutta näkökulmasta riippuen, onko se kammottavaa vai tapa muistaa rakastamasi ihminen ja pitää hänestä kiinni hänen kuoltuaan?"
Mutta memento mori voi olla sekä lohdullinen että kammottava. Perheenjäsenen ystävä on kuollut, mutta voit silti kuulla heidän puhuvan. Ei auta, että Alexalla on ollut outoa ja joskus pelottavaa käyttäytymistä. Vuonna 2018, kun NYT:n mielipidekolumnisti Farhad Manjoo meni nukkumaan, hänen Amazon Echonsa "alkoi itkeä kuin lapsi, joka huutaa kauhuelokuvaunessa."
Pian tämän jälkeen Amazon myönsi, että Alexa nauroi joskus ääneen, mikä on teini-ikäisten ja kellarien lisäksi kauhuelokuva 101.
Voidaan vain ihmetellä, miltä sinusta tuntuisi, jos Alexa teki samat temput isoäidin äänellä.
Deep Fake
Näennäinen helppous, jolla Alexa oppii matkimaan ääntä, johtaa meidät ilkeämpiin äänikloonauksen käyttötarkoituksiin: syvät väärennökset.
"Deepfake-ääni ei ole uutta, vaikka se on vähän ymmärretty ja vähän tunnettu. Tekniikka on ollut saatavilla vuosia yksilön äänen luomiseksi uudelleen tekoälyn ja syvän oppimisen avulla käyttämällä suhteellisen vähän todellista ääntä, " sanoo Selepak. "Tällainen tekniikka voi myös olla vaarallista ja tuhoisaa. Häiriintynyt henkilö voi toistaa kuolleen entisen poikaystävän tai tyttöystävän äänen ja käyttää uutta ääntä sanoakseen vihamielisiä ja loukkaavia asioita."
Se on vain Alexan yhteydessä. Deep fake audio voisi mennä paljon pidemmälle ja vakuuttaa ihmiset siitä, että näkyvät poliitikot uskovat asioita, joita he eivät esimerkiksi usko. Mutta toisa alta, mitä enemmän tottelemme näihin syviin väärennöksiin - ehkäpä näiden Alexa-äänien muodossa - sitä enemmän suhtaudumme skeptisempiin väärennöksiin. Toisa alta, kun otetaan huomioon, kuinka helppoa valheita on levittää Facebookissa, ehkä ei.
Amazon ei ole kertonut, onko tämä ominaisuus tulossa Alexaan vai onko se vain teknologiademo. Jotenkin toivon että tekee. Tekniikka on parhaimmillaan, kun sitä käytetään humanistisella tavalla näin, ja vaikka helppo reaktio onkin kutsua sitä kammottavaksi, kuten Selepak sanoo, se ei todellakaan eroa paljon vanhojen videoiden katselusta tai tallennettujen vastaajaviestien kuuntelemisesta, kuin hahmo laiskasti käsikirjoitetussa TV-ohjelmassa.
Ja jos syväväärennösten tekniikka on helposti saatavilla, miksi emme käyttäisi sitä lohduttamiseen?