AI voisi vihdoinkin auttaa torjumaan vihapuheen

Sisällysluettelo:

AI voisi vihdoinkin auttaa torjumaan vihapuheen
AI voisi vihdoinkin auttaa torjumaan vihapuheen
Anonim

Keeawayt

  • Uuden ohjelmistotyökalun avulla tekoäly voi valvoa Internetin kommenteissa vihapuhetta.
  • AI tarvitaan internet-sisällön moderointiin, koska materiaalia on v altava määrä, joka ylittää ihmisen kyvyt.
  • Mutta jotkut asiantuntijat sanovat, että puheen tekoälyvalvonta herättää tietosuojaongelmia.
Image
Image

Kun vihapuhe verkossa lisääntyy, yksi yritys sanoo, että sillä saattaa olla ratkaisu, joka ei ole riippuvainen ihmisvalvojista.

Käynnistysyritys nimeltä Spectrum Labs tarjoaa tekoälyteknologiaa alustantarjoajille myrkyllisten vaihtojen havaitsemiseksi ja sulkemiseksi reaaliajassa. Mutta asiantuntijat sanovat, että tekoälyn valvonta herättää myös tietosuojaongelmia.

"Tekoälyn seuranta vaatii usein tarkastelemaan malleja ajan mittaan, mikä edellyttää tietojen säilyttämistä", David Moody, Schellmanin, turvallisuuden ja yksityisyyden vaatimustenmukaisuuden arviointiyrityksen, vanhempi työntekijä kertoi Lifewirelle sähköpostihaastattelussa. "Nämä tiedot voivat sisältää tietoja, jotka lait ovat merkinneet tietosuojatiedoiksi (henkilökohtaisia tunnistetietoja tai henkilökohtaisia tunnistetietoja)."

Lisää vihapuhetta

Spectrum Labs lupaa korkean teknologian ratkaisun ikivanhaan vihapuheen ongelmaan.

"Autamme alustoja keskimäärin vähentämään sisällön moderointiponnisteluja 50 % ja lisäämään myrkyllisen käyttäytymisen havaitsemista 10-kertaiseksi", yritys väittää verkkosivuillaan.

Spectrum kertoo rakentavansa yli 40 käyttäytymisen tunnistusmallia yhteistyössä tutkimuslaitosten kanssa, joilla on erityisosaamista haitallisista käyttäytymismalleista. Yrityksen Guardian-sisällönvalvontaalustan rakensi datatieteilijöiden ja moderaattoreiden tiimi "tukemaan yhteisöjen suojaamista myrkyllisyydeltä."

Vihapuheen torjumiseen tarvitaan yhä enemmän tapoja, sillä ihmisen on mahdotonta valvoa jokaista verkkoliikennettä. Dylan Fox, AssemblyAI:n toimitusjohtaja, puheentunnistusta tarjoava startup, jonka asiakkaat ovat mukana vihan seurantaan. puhe, kertoi Lifewire sähköpostihaastattelussa.

"Pelkästään Twitterissä on noin 500 miljoonaa twiittiä päivässä", hän lisäsi. "Vaikka yksi henkilö voisi tarkistaa twiitin 10 sekunnin välein, twitterin pitäisi työllistää 60 tuhatta ihmistä. Sen sijaan käytämme älykkäitä työkaluja, kuten tekoälyä, automatisoidaksemme prosessin."

Toisin kuin ihminen, tekoäly voi toimia 24/7 ja mahdollisesti olla tasa-arvoisempi, koska se on suunniteltu soveltamaan sääntöjään yhtenäisesti kaikkiin käyttäjiin ilman, että henkilökohtainen uskomus häiritsee, Fox sanoi. Myös niille ihmisille, joiden on valvottava ja valvottava sisältöä, on kuluja.

"He voivat altistua väkivallalle, vihalle ja ilkeille teoille, jotka voivat vahingoittaa ihmisen mielenterveyttä", hän sanoi.

Spectrum ei ole ainoa yritys, joka pyrkii havaitsemaan verkossa tapahtuvan vihapuheen automaattisesti. Esimerkiksi Center Malaysia julkaisi äskettäin online-seurannan, joka on suunniteltu etsimään vihapuhetta malesialaisten verkkokäyttäjien keskuudessa. Niiden kehittämä ohjelmisto, nimeltään Tracker Benci, käyttää koneoppimista vihapuheen havaitsemiseen verkossa, erityisesti Twitterissä.

Haasteena on luoda tiloja, joissa ihmiset voivat todella olla tekemisissä toistensa kanssa rakentavasti.

Yksityisyyteen liittyvät huolenaiheet

Vaikka Spectrumin k altaiset tekniset ratkaisut saattavat torjua vihapuhetta verkossa, ne herättävät myös kysymyksiä siitä, kuinka paljon poliisitietokoneiden pitäisi tehdä.

Sananvapauteen liittyy vaikutuksia, mutta ei vain puhujiin, joiden viestit poistettaisiin vihapuheena, Santa Claran yliopiston Markkulan soveltavan etiikan keskuksen internet-etiikkajohtaja Irina Raicu kertoi Lifewirelle sähköpostissa. haastattelu.

"Sananvapauden nimissä tapahtuvan häirinnän salliminen on ajanut tällaisen puheen kohteet (etenkin kun se on kohdistettu tiettyihin henkilöihin) lopettamaan puhumisen - hylkäämään erilaiset keskustelut ja alustat kokonaan", Raicu sanoi."Haasteena on luoda tiloja, joissa ihmiset voivat todella olla tekemisissä toistensa kanssa rakentavasti."

AI-puheen valvonnan ei pitäisi aiheuttaa tietosuojaongelmia, jos yritykset käyttävät julkisesti saatavilla olevaa tietoa valvonnan aikana, Fox sanoi. Jos yritys kuitenkin ostaa tietoja siitä, miten käyttäjät ovat vuorovaikutuksessa muilla alustoilla tunnistaakseen enn alta ongelmalliset käyttäjät, tämä voi aiheuttaa tietosuojaongelmia.

"Se voi varmasti olla hieman harmaa alue sovelluksesta riippuen", hän lisäsi.

Image
Image

Justin Davis, Spectrum Labsin toimitusjohtaja, kertoi Lifewirelle sähköpostissa, että yrityksen teknologia pystyy tarkastelemaan 2-5 tuhatta riviä dataa sekunnin murto-osissa. "Tärkeintä on, että teknologia voi vähentää myrkyllisen sisällön määrää, jolle ihmiset moderaattorit altistuvat", hän sanoi.

Saamme olla vallankumouksen kynnyksellä ihmisten puheen ja tekstin monitoroinnissa verkossa. Tulevat edistysaskeleet sisältävät paremmat riippumattomat ja autonomiset seurantaominaisuudet, joiden avulla voidaan tunnistaa aiemmin tuntemattomat vihapuheen muodot tai muut kehittyvät sensuroitavat mallit, Moody sanoi.

AI pystyy myös pian tunnistamaan tiettyjen puhemallien kuviot ja yhdistämään lähteet ja niiden muut toiminnot uutisanalyysin, julkisten tiedostojen, liikennemallianalyysin, fyysisen seurannan ja monien muiden vaihtoehtojen avulla, hän lisäsi.

Mutta jotkut asiantuntijat sanovat, että ihmisten on aina työskenneltävä tietokoneiden kanssa seuratakseen vihapuhetta.

"Tekoäly yksin ei toimi", Raicu sanoi. "Se on tunnustettava yhdeksi epätäydelliseksi työkaluksi, jota on käytettävä yhdessä muiden vastausten kanssa."

Korjaus 25.1.2022: Lisätty lainaus Justin Davisilta 5. kappaleeseen lopusta kuvastamaan julkaisun jälkeistä sähköpostiviestiä.

Suositeltava: