AI Crime Prediction voi syyttää vääriä ihmisiä

Sisällysluettelo:

AI Crime Prediction voi syyttää vääriä ihmisiä
AI Crime Prediction voi syyttää vääriä ihmisiä
Anonim

Keeawayt

  • Ohjelmistoyhtiön kerrotaan keräävän sosiaalisen median tietoja luodakseen profiileja, joiden avulla voidaan tunnistaa turvallisuusriskejä aiheuttavat ihmiset.
  • Voyager Labs on tehnyt merkittävän sopimuksen japanilaisen v altion viraston kanssa.
  • Mutta asiantuntijat varoittavat, että tekoälyn ennustusohjelmistoa voidaan huijata.
Image
Image

Verkkotietojesi avulla voidaan ennustaa, saatatteko tehdä rikoksen.

Voyager Labsin kerrotaan keräävän sosiaalisen median tietoja luodakseen profiileja, joiden avulla voidaan tunnistaa turvallisuusriskejä aiheuttavat ihmiset. Se on osa kasvavaa pyrkimystä käyttää tekoälyä mahdollisten rikollisten tutkimiseen. Mutta jotkut asiantuntijat sanovat, että liike on täynnä mahdollisia ongelmia.

"Ihmisen käyttäytymistä on erittäin vaikea ennustaa", Atumcell Groupin turvallisuustutkija Matthew Carr kertoi Lifewirelle sähköpostihaastattelussa. "Emme edes pysty ennustamaan omaa käyttäytymistämme, saati jonkun muun. Mielestäni on mahdollista, että tekoälyä voitaisiin tulevaisuudessa käyttää tähän tarkoitukseen, mutta olemme vielä kaukana siitä, että pystyisimme siihen tällä hetkellä."

Profiilien luominen

Kuten The Guardian äskettäin raportoi, Los Angelesin poliisilaitos tutki Voyager Labin rikosten ennustamisohjelmiston käyttöä. Yhtiö ilmoitti myös tehneensä merkittävän sopimuksen japanilaisen v altion viraston kanssa.

Japanin sopimus tarjoaa v altion virastolle tekoälyyn perustuvan tutkimusalustan, joka analysoi v altavia määriä tietoa mistä tahansa lähteestä, mukaan lukien avoimet ja syvälliset tiedot.

"Olen iloinen, että teemme yhteistyötä terrorismin ja rikollisuuden torjunnassa", sanoi Divya Khangarot, Voyager Labsin APAC:n toimitusjohtaja, tiedotteessa. "Voyager Labin huippuluokan älykkyysratkaisujen avulla asiakkaamme saavat ainutlaatuisia kykyjä ennakoivasti tunnistaa ja häiritä mahdollisia uhkia. Tuomme lisää syvällisiä tutkintatietoja käyttämällä tekoälyn, koneoppimisen ja OSINT:n yhdistelmää paljastaaksemme piilotetut jäljet, loukatut tiedot, ja huonoja näyttelijöitä."

Ei niin älykäs?

Mutta sähköpostihaastattelussa Matt Heisie, Ferret.ai:n perustaja, joka käyttää tekoälyä myös rikollisten ennustamiseen, kyseenalaistaa jotkin Voyager Labsin väitteet.

"Onko esimerkiksi pidätysrekisterin ja tulevan rikollisen käyttäytymisen välillä yhtä selkeä yhteys kuin testissä on musta täplä ja kasvaimen kehittyminen?" hän sanoi. "Ajattele kaikkia mahdollisia sekaannuksia, jotka tuohon pidätykseen joutuivat - millä alueella henkilö asui, kuinka paljon ja kuinka paljon poliisin laatu ja jopa puolueellisuus tällä alueella on. Henkilön iällä, sukupuolella, ulkonäöllä, kaikilla näillä on risteäviä vaikutuksia sen todennäköisyyteen, että kyseisellä henkilöllä on pidätysrekisteri, täysin erillään hänen todellisesta taipumuksestaan tehdä rikos, jota yritämme ennustaa."

Syyttäjät, joilla on parempia asianajajia, pystyvät todennäköisemmin estämään tietueiden tulemisen julkisiksi, Heisie sanoi. Jotkut lainkäyttöalueet rajoittavat laukausten tai pidätystietojen julkaisemista syytetyn suojelemiseksi.

"Tietokone oppii sille antamiesi tietojen perusteella ja ottaa huomioon kaikki tuohon tiedonkeruussa käytetyt harhat…"

"Kaikki tämä lisää algoritmien harhaa", hän lisäsi. "Tietokone oppii sille antamiesi tietojen perusteella ja sisällyttää kaikki tiedonkeruussa olleet harhakohdat oppimiseen ja tulkintaan."

Tekoälyä ennustavaa rikollisuutta on yritetty luoda useaan otteeseen, ja usein skandaalituloksilla, Heisie sanoi.

COMPAS, algoritmi, jota lainvalvontaviranomaiset käyttävät rikoksen uusimisen ennustamiseen, käytetään usein tuomion ja takuiden määrittämisessä. Vuoteen 2016 asti se on kohdannut skandaalin rodullisista ennakkoluuloista, ja se ennusti, että mustat syytetyt aiheuttavat suuremman riskin uusiutumiseen kuin he todellisuudessa tekivät, ja päinvastoin valkoisten syytettyjen kohdalla.

Yli 1 000 teknologia ja tutkijaa, mukaan lukien tutkijat ja tekoälyasiantuntijat Harvardista, MIT:stä, Googlesta ja Microsoftista, vastusti vuonna 2020 paperia, jossa väitettiin, että tutkijat olivat kehittäneet algoritmin, joka voisi ennustaa rikollisuuden perustuen pelkästään henkilön kasvoille sanoen, että tällaisten tutkimusten julkaiseminen vahvistaa rikosoikeusjärjestelmässä jo olemassa olevaa rodullista ennakkoluulottomuutta, Heisie huomautti.

Image
Image

Kiina on tämän tyyppisen teknologian suurin ja nopeimmin kasvava markkina-alue, mikä johtuu pääasiassa laajasta pääsystä yksityisiin tietoihin, yli 200 miljoonalla valvontakameralla ja edistyneellä tekoälytutkimuksella, joka on keskittynyt tähän asiaan useiden vuosien ajan, Heisie sanoi.. CloudWalkin Police Cloudin k altaisia järjestelmiä käytetään nyt rikollisten ennustamiseen ja jäljittämiseen sekä lainvalvontaviranomaisten paikantamiseen.

"Siellä on kuitenkin raportoitu merkittäviä harhoja", Heisie sanoi.

Heisie lisäsi, että hänen yrityksensä kuroi huolellisesti sisään tulevaa dataa eikä käytä mugshots- tai pidätystietueita, vaan "keskittyy sen sijaan objektiivisempiin kriteereihin".

"Tekoälymme oppi kuroiduista tiedoista, mutta mikä tärkeintä, se oppii myös ihmisiltä, jotka itse analysoivat, kuratoivat ja arvioivat tietueita ja kertovat meille vuorovaikutuksestaan muiden kanssa", hän lisäsi. "Pidämme myös täyden läpinäkyvyyden ja ilmaisen ja julkisen pääsyn sovellukseemme (niin nopeasti kuin voimme päästää ne beta-vaiheeseen), ja toivomme mielellämme tietoa prosesseistamme ja menettelyistämme."

Suositeltava: