Miksi uusi profilointiohjelmisto herättää tietosuojaongelmia

Sisällysluettelo:

Miksi uusi profilointiohjelmisto herättää tietosuojaongelmia
Miksi uusi profilointiohjelmisto herättää tietosuojaongelmia
Anonim

Keeawayt

  • Ohjelmisto, joka käyttää tekoälyä ihmisten profiloimiseen, herättää tietosuojaongelmia.
  • Cryfe yhdistää käyttäytymisanalyysitekniikat tekoälyyn.
  • Kiinalaista yritystä Alibabaa kritisoitiin äskettäin sen jälkeen, kun kerrottiin, että sen ohjelmisto voisi havaita uiguurit ja muut etniset vähemmistöt.
Image
Image

Uusi tekoälyllä toimiva ohjelmisto, joka on tarkoitettu työnantajille profiloimaan työntekijöitään, aiheuttaa tietosuojaongelmia.

Yksi uusi ohjelmistoalusta, nimeltään Cryfe, yhdistää käyttäytymisanalyysitekniikat tekoälyyn. Kehittäjä väittää, että analysoimalla pieniä vihjeitä ohjelmisto voi paljastaa ihmisten aikomukset haastattelujen aikana. Mutta jotkut tarkkailijat sanovat, että Cryfe ja muut käyttäytymistä analysoivat ohjelmistot voivat loukata yksityisyyttä.

"Yritykset luottavat yhä enemmän tekoälyyn profiloinnissa", tekoälyasiantuntija Vaclav Vincale sanoi sähköpostihaastattelussa. "Mutta edes ihmiset, jotka koodaavat näitä algoritmeja, saati puhelimitse tavoittamasi asiakastukihenkilöt, eivät voineet kertoa, miksi he tekevät suosituksia."

Enemmän kuin sanoja

Cryfen on kehittänyt sveitsiläinen yritys, jonka työntekijät FBI koulutti profilointitekniikoissa. "Cryfe kaikessa ihmisten välisessä viestinnässä ei kuuntele vain sanoja, vaan myös tunnistaa muut ihmisen lähettämät signaalit, kuten tunteet, mikroilmaisut ja kaikki eleet", Cryfen perustaja Caroline Matteucci sanoi sähköpostihaastattelussa.

"Esimerkiksi rekrytoinnin aikana voimme mennä etsimään keskustelukumppanimme todellista persoonallisuutta."

Matteucci sanoi, että käyttäjien yksityisyys on suojattu, koska yritys on avoin ohjelmistonsa toiminnasta. "Käyttäjän on hyväksyttävä yleiset ehdot ennen kuin hän voi käyttää alustaa", hän sanoi.

"Siellä on määritelty, että käyttäjä ei saa missään tapauksessa lähettää haastattelua analysoitavaksi ilman keskustelukumppanin kirjallista suostumusta."

Cryfe ei ole ainoa tekoälyllä toimiva ohjelmisto, jonka tarkoituksena on analysoida ihmisten käyttäytymistä. Siellä on myös Humantic, joka väittää analysoivansa kuluttajien käyttäytymistä. "Humanticin uraauurtava tekniikka ennustaa jokaisen käyttäytymisen ilman, että heidän tarvitsee koskaan tehdä persoonallisuustestiä", yhtiön verkkosivuston mukaan.

Image
Image

Yhtiö väittää käyttävänsä tekoälyä luomaan hakijoiden psykologisia profiileja niiden sanojen perusteella, joita he käyttävät ansioluetteloissa, saatekirjeissä, LinkedIn-profiileissa ja missä tahansa muussa lähettämässään tekstissä.

Käyttäytymisohjelmistot ovat joutuneet oikeudellisiin haasteisiin aiemmin. Vuonna 2019 Bloomberg Law raportoi, että Equal Employment Opportunity Commission (EEOC) tarkasteli tapauksia, joissa väitettiin algoritmiavusteisista henkilöstöön liittyvistä päätöksistä johtuvaa laitonta syrjintää.

"Tämä kaikki on selvitettävä, koska rekrytoinnin tulevaisuus on tekoäly", asianajaja Bradford Newman kertoi Bloombergille.

Jotkut tarkkailijat kiistelevät yritysten kanssa, jotka käyttävät käyttäytymisen seurantaohjelmistoa, koska se ei ole tarpeeksi tarkka. Nigel Duffy, maailmanlaajuinen tekoälyjohtaja asiantuntijapalveluyrityksestä EY, kertoi haastattelussa InformationWeekille, että häntä vaivaa ohjelmisto, joka käyttää sosiaalisen median tietokilpailuja ja vaikutusten havaitsemista.

"Luulen, että vaikutusten havaitsemismahdollisuuksista on olemassa todella vakuuttavaa kirjallisuutta, mutta ymmärrän, että tapa, jota käytetään usein, on melko naiivi", hän sanoi.

"Ihmiset tekevät johtopäätöksiä, joita tiede ei todellakaan tue [kuten] sen päättelemistä, että joku on mahdollisesti hyvä työntekijä, koska he hymyilevät paljon tai päättävät, että joku pitää tuotteistasi, koska he hymyilevät paljon"

Kiinalaisten yritysten kerrotaan profiilin vähemmistöt

Käyttäytymisen seurannalla voi olla myös synkempiä tarkoituksia, jotkut ihmisoikeusjärjestöt sanovat. Kiinassa verkkokauppajätti Alibaba nosti hiljattain kohua, kun se väitti, että sen ohjelmisto voisi havaita uiguurit ja muut etniset vähemmistöt.

The New York Times raportoi, että yrityksen pilvipalveluilla oli ohjelmistoja, jotka skannasivat kuvia ja videoita.

Mutta edes ihmiset, jotka koodaavat näitä algoritmeja… eivät voineet kertoa sinulle, miksi he antavat mitään suosituksia.

Washington Post raportoi äskettäin myös, että Huawei, toinen kiinalainen teknologiayritys, oli testannut ohjelmistoja, jotka saattoivat varoittaa lainvalvontaviranomaisia, kun sen valvontakamerat havaitsivat uiguurien kasvot.

Huawein vuoden 2018 patenttihakemuksessa väitetään, että "jalankulkijoiden ominaisuuksien tunnistaminen on erittäin tärkeää" kasvojentunnistustekniikassa."Kohdeobjektin attribuutit voivat olla sukupuoli (mies, nainen), ikä (kuten teini-ikäiset, keski-ikäiset, vanhat) [tai] rotu (han, uiguurit), " sovellus sanoi.

Huawein tiedottaja kertoi CNN Businessille, että etnisen alkuperän tunnistamisominaisuuden "ei olisi koskaan pitänyt tulla osaksi sovellusta".

Tekoälyn lisääntyvä käyttö v altavien tietomäärien lajitteluun aiheuttaa varmasti tietosuojaongelmia. Et ehkä koskaan tiedä kuka tai mikä sinua analysoi, kun seuraavan kerran menet työhaastatteluun.

Suositeltava: