Miksi tunteidenlukuohjelmisto voi loukata yksityisyyttäsi

Sisällysluettelo:

Miksi tunteidenlukuohjelmisto voi loukata yksityisyyttäsi
Miksi tunteidenlukuohjelmisto voi loukata yksityisyyttäsi
Anonim

Keeawayt

  • Zoom kertoi käyttävänsä tekoälyä käyttäjän tunteen tai sitoutumisen tason arvioimiseen.
  • Ihmisoikeusryhmät pyytävät Zoomia harkitsemaan uudelleen suunnitelmaansa yksityisyyden ja tietoturvan vuoksi.
  • Jotkut yritykset käyttävät myös tunteidentunnistusohjelmistoa haastatteluissa arvioidakseen, kiinnittääkö käyttäjä huomiota.
Image
Image

Tekoälyn (AI) lisääntyvä käyttö ihmisten tunteiden seuraamiseen herättää huolta yksityisyydestä.

Ihmisoikeusjärjestöt pyytävät Zoomia hidastamaan suunnitelmaansa tuoda tunne-analysoiva tekoäly videoneuvotteluohjelmistoonsa. Yrityksen on kerrottu käyttävän tekoälyä arvioidakseen käyttäjän tunteita tai sitoutumistasoa.

"Asiantuntijat myöntävät, että tunneanalyysi ei toimi", ihmisoikeusryhmien konsortio, mukaan lukien ACLU, kirjoitti kirjeessään Zoomille. "Kasvojen ilmeet ovat usein irti alla olevista tunteista, ja tutkimukset ovat osoittaneet, että edes ihmiset eivät aina osaa tarkasti lukea tai mitata muiden tunteita. Tämän työkalun kehittäminen lisää uskottavuutta pseudotiedelle ja asettaa maineesi vaakalaudalle."

Zoom ei vastannut välittömästi Lifewiren kommenttipyyntöön.

Pidä tunteitasi silmällä

Protokollaartikkelin mukaan Zoom-valvontajärjestelmä nimeltä Q for Sales tarkistaisi käyttäjien puheaikasuhteen, vasteaikaviiveen ja toistuvan kaiuttimen vaihdon seuratakseen henkilön sitoutumista. Zoom käyttäisi näitä tietoja pisteiden antamiseen nollasta 100:aan, ja korkeammat pisteet osoittavat suurempaa sitoutumista tai tunteita.

Ihmisoikeusryhmät väittävät, että ohjelmisto voi syrjiä vammaisia tai tiettyjä etnisiä ryhmiä oleellisesti, että kaikki käyttävät samoja ilmeitä, äänimalleja ja kehon kieltä kommunikoidakseen. Ryhmät ehdottavat myös, että ohjelmisto voisi olla tietoturvariski.

Image
Image

"Syvästi henkilökohtaisten tietojen kerääminen voi tehdä mistä tahansa tätä tekniikkaa käyttävästä tahosta v altion viranomaisten ja pahantahtoisten hakkerien kohteeksi", kirjeen mukaan.

Julia Stoyanovich, New Yorkin yliopiston tietojenkäsittelytieteen ja tekniikan professori, kertoi Lifewirelle sähköpostihaastattelussa, että hän suhtautuu skeptisesti tunteiden havaitsemiseen liittyviin väitteisiin.

"En ymmärrä, miten tällainen tekniikka voi toimia - ihmisten tunteiden ilmaisu on hyvin yksilöllistä, hyvin kulttuurisesti riippuvaista ja hyvin kontekstikohtaista", Stoyanovich sanoi."Mutta mikä ehkä vielä tärkeämpää, en ymmärrä, miksi haluaisimme näiden työkalujen toimivan. Toisin sanoen olisimme vieläkin enemmän vaikeuksissa, jos ne toimisivat hyvin. Mutta ehkä jo ennen riskien miettimistä meidän pitäisi kysy - mitkä ovat tällaisen tekniikan mahdolliset edut?"

Zoom ei ole ainoa yritys, joka käyttää tunteidentunnistusohjelmistoa. Theo Wills, yksityisyyden ja turvallisuuden konsulttiyrityksen Kuma LLC:n tietosuojajohtaja, kertoi Lifewirelle sähköpostitse, että haastatteluissa käytetään tunteiden tunnistamiseen tarkoitettuja ohjelmistoja arvioimaan, kiinnittääkö käyttäjä huomiota. Sitä myös pilotoidaan kuljetusalalla sen valvomiseksi, näyttävätkö kuljettajat unelia alta, videoalustalla kiinnostuksen mittaamiseksi ja suositusten räätälöimiseksi sekä opetusohjelmissa sen määrittämiseksi, onko tietty opetusmenetelmä mukaansatempaava.

Wills väitti, että tunteidenseurantaohjelmistoja koskeva kiista on enemmänkin tiedon etiikasta kuin yksityisyydestä. Hän sanoi, että kyse on siitä, että järjestelmä tekee todellisia päätöksiä aavistuksen perusteella.

"Tällä tekniikalla oletat nyt syyn, miksi minulla on tietty ilme kasvoillani, mutta ilmaisun takana oleva sysäys vaihtelee suuresti esimerkiksi sosiaalisen tai kulttuurisen kasvatuksen, perhekäyttäytymisen, aiempien kokemusten tai hermostuneisuuden vuoksi. tällä hetkellä", Wills lisäsi. "Algoritmin perustaminen olettamukseen on luonnostaan virheellistä ja mahdollisesti syrjivää. Monet populaatiot eivät ole edustettuina siinä populaatiossa, johon algoritmit perustuvat, ja asianmukainen esitys on priorisoitava ennen kuin sitä voidaan käyttää."

Käytännön huomioita

Tunteenseurantaohjelmiston aiheuttamat ongelmat voivat olla sekä käytännöllisiä että teoreettisia. Matt Heisie, tekoälyyn perustuvan sovelluksen, Ferret.ai:n, perustaja, joka tarjoaa ihmissuhteiden älykkyyttä, kertoi Lifewirelle sähköpostissa, että käyttäjien on kysyttävä, missä kasvojen analyysi tehdään ja mitä tietoja tallennetaan. Tehdäänkö tutkimus puhelutallenteilla, käsitelläänkö pilvessä vai paikallisella laitteella?

Heisie kysyi myös, kun algoritmi oppii, mitä tietoja se kerää henkilön kasvoista tai liikkeistä, jotka voitaisiin mahdollisesti erottaa algoritmista ja käyttää jonkun biometristen tietojen luomiseen? Tallentaako yritys tilannekuvia algoritmin oppien tarkistamiseksi tai validoimiseksi, ja onko käyttäjälle ilmoitettu näistä uusista johdannaistiedoista tai tallennetuista kuvista, joita mahdollisesti kerätään heidän puheluistaan?

"Nämä ovat kaikki ongelmia, jotka monet yritykset ovat ratkaisseet, mutta on myös yrityksiä, jotka ovat järkyttyneet skandaalista, kun käy ilmi, että ne eivät ole tehneet tätä oikein", Heisie sanoi. "Facebook on merkittävin tapaus yrityksestä, joka peruutti kasvojentunnistusalustan käyttäjien yksityisyyttä koskevien huolenaiheiden vuoksi. Emoyhtiö Meta ottaa nyt AR-ominaisuuksia Instagramista joillakin lainkäyttöalueilla, kuten Illinoisissa ja Texasissa biometrisiä tietoja koskevien tietosuojalakien vuoksi."

Suositeltava: