YouTuben New Age Restriction AI huolestuttaa LGBTQ+-yhteisöä

Sisällysluettelo:

YouTuben New Age Restriction AI huolestuttaa LGBTQ+-yhteisöä
YouTuben New Age Restriction AI huolestuttaa LGBTQ+-yhteisöä
Anonim

Keeawayt

  • YouTuben automaattinen ikärajoitusohjelmisto aiheuttaa huolta LGBTQ+-sisällöstä alustalla.
  • Yritystä on vaivannut LGBTQ+-sisällöntuottajien kiista, joka vahvistaa epäilyksiä.
  • Koneoppimisen vinoumat antavat uskottavuutta ajatukselle, että sen epätäydellinen suodattimien toteutus todennäköisesti rajoittaa pääsyä epäoikeudenmukaisesti.
Image
Image

Koska on aiemmin kohdistettu epäreilusti LGBTQ+-sisällöntuottajiin moderointiprosessissaan, YouTuben uusi tekoälypohjainen tekniikka nähdään teknologiajätin huolestuttavana seuraavana askeleena.

Virallisessa YouTube-blogissa viime viikolla videonjakoalusta paljasti suunnitelman julkaista uusi automaattinen ohjelmisto, joka "soveltaa johdonmukaisemmin ikärajoituksia" videoihin, joita pidettiin sopimattomina nuoremmille katsojille.

Viimeaikaiset huolenaiheet lapsista sovelluksessa, uusi järjestelmä perustuu koneoppivaan tekoälyohjelmistoon, joka pystyy luopumaan ihmisvalvojista automaattisempaa prosessia varten. Ongelma? YouTuben automatisoituja järjestelmiä on syytetty LGBTQ+-sisällön ja sisällöntuottajien erottamisesta vain olemassa olevan sisällön vuoksi.

Vaikka se ei olisikaan haitallista, mitä en usko sen olevan, se on erilaisten äänien puuttumista – tai ainakin kunnioituksen puutetta.

"Ihmiset ovat tietoisia koneoppimisesta ja ovat ihmisten luomia, ja on mahdollista, että siihen liittyvät ennakkoluulot tai kone itse oppii", YouTuber Rowan Ellis sanoi Lifewiren puhelinhaastattelussa. "Sen puolueellisuus [LGBTQ+]-sisällön suhteen on ollut ilmeinen [LGBTQ+] YouTube-käyttäjien aiemmissa kokemuksissa, enkä ole nähnyt todisteita siitä, että mitään olisi tehty sen estämiseksi."

Vauva, nyt meillä on huonoa verta

Ellis on YouTube-käyttäjä, joka luo feminististä ja omituista opetussisältöä, ja vuonna 2017 hän julkaisi videon yrityksen rajoitetusta tilasta. Automaattisen sisällön moderoinnin alkuvaiheessa tämä tila antoi käyttäjille mahdollisuuden esiseuloa "mahdollisesti aikuisille tarkoitettua sisältöä" hakuehdotuksista ja suosituksista.

Yli 100 000 katselukertaa kerättyään hän uskoo, että hänen kanavaansa yritettiin tietoisesti estää rajoituksista, koska hän vastusti äänekkäästi YouTuben uudella askeleella kohti m altillisuutta. Muut alustan käyttäjät eivät olleet niin onnekkaita, ja he saivat YouTuben tietämään sen.

Elokuussa 2019 kahdeksan LGBTQ+-sisällöntuottajan ryhmä nosti YouTubea vastaan ryhmäkanteen, joka syytti Piilaakson yritystä queer- ja trans-videoiden tekijöiden ja sisällön rajoittamisesta. Oikeusjuttu väittää, että sivusto käyttää "laittomia sisällön sääntely-, jakelu- ja kaupallistamiskäytäntöjä, jotka leimaavat, rajoittavat, estävät, demonetisoivat ja vahingoittavat taloudellisesti LGBT-kantajien ja laajempaa LGBT-yhteisöä."Se etenee edelleen Kalifornian tuomioistuimissa.

Ihmiset ovat tietoisia koneoppimisesta ja ovat ihmisten luomia, ja on mahdollista, että kyseiset ennakkoluulot ovat siihen luontaisia tai jotka kone itse oppii.

Saman vuoden kesäkuussa alusta sai runsaasti mediahuomiota, kun se kieltäytyi nopeasti nuhtelemasta suosittua konservatiivista kommentaattoria Steven Crowderia kuukausia kestäneestä homofobisesta häirintäkampanjasta Vox-toimittajaa ja juontaja Carlos Mazaa vastaan. Tämä vahvisti Ellisin mukaan verkkoalustan mallia, jossa jätettiin huomiotta queer-luojien kohtaamat ainutlaatuiset haasteet. LGBTQ+-sisällöntuottajien uskon puute YouTuben kykyyn näkyä heille ei ole ansiota.

"En usko, että he ovat ymmärtäneet avoimuuden tarvetta sosiaalisten asioiden ja tasa-arvon takaamisessa", hän sanoi. "Ympäri maailmaa on edelleen lapsia, jotka ovat kasvaneet ajatuksella, että homous on väärin, ja kun he alkavat kyseenalaistaa tätä uskomusta, mutta huomaavat sen sulkeutuvan turvallisella etsinnällä tai rajoituksella, se vahvistaa ajatusta, että se on väärä, sopimaton, aikuinen, perverssi ja likainen."

Automaattisen oppimisen epäonnistuminen

Koska LGBTQ+ -sisällöntuottajia koskeva surkea historia alustallaan on huolissaan koneoppimisohjelmiston kyvystä havaita suurempia normeja, on edelleen huolissaan. Markkulan soveltavan etiikan keskuksen toiminnanjohtaja Don Heider ehdottaa, että hulluuden mahdollisuus on liian suuri riski pelaamiseen.

"On vaikea uskoa, että tekoäly voi tehokkaasti hallita sisältöä useista maista, joilla on erilaiset kulttuuriset normit ja standardit", hän kirjoitti sähköpostihaastattelussa. "Tekoäly nähdään liian usein vastauksena monimutkaisiin kysymyksiin. Tässä vaiheessa tekoälyllä ja sen luomistavalla on vaikeuksia selviytyä jopa yksinkertaisista tehtävistä, puhumattakaan kaiken monimutkaisen sisällön hallinnasta."

YouTube päätti käyttää tekoälytekniikkaa, koska ihmisten moderaattorit eivät olleet valvoneet johdonmukaisesti, kertoo sen blogi. Tietokoneistettujen suodattimien käytön lisääminen sopimattomiksi katsottujen videoiden poistamiseen tuli normiksi, ja samojen menettelyjen käyttöönottoa sen ikärajoituspolitiikoissa nähdään loogisena seuraavana askeleena.

Koska yritys pyrkii asteittain parantamaan prosessejaan sen jälkeen, kun sen suhdetta lapsikuluttajiin on kritisoitu pitkään, tämä päätös ei ole yllätys.

En usko, että he ovat ymmärtäneet avoimuuden tarvetta sosiaalisten asioiden ja tasa-arvon varmistamisen suhteen.

Lapsista on tullut videonjakosivuston keskeinen väestöryhmä. Digitaalisten videoiden analytiikkayritys Tubular havaitsi elokuussa, että musiikkivideoiden lisäksi lapsille suunnattu sisältö oli YouTuben katsotuimpien videoiden kuukauden lopussa listan kärjessä.

Yhtiön etu suojella tätä tuottoisaa, nousevaa voimanpesää alustalla on järkevää. Tämän suojan toteuttamiseen käytetyt työkalut ovat kuitenkin edelleen epämukavia niille, jotka ovat jo huomanneet olevansa yrityksen m altillisen menettelyn jälkeen.

"Olen huolissani siitä, että se tekee paljon haittaa eikä suojaa [LGBTQ+]-nuoria, jotka tarvitsevat informatiivista, rehellistä ja rehellistä sisältöä, jota monet [LGBTQ+]-YouTube-käyttäjät saattavat tarjota, mutta josta ilmoitetaan sen järjestelmässä sopimattomana", Ellis sanoi."Vaikka se ei olisikaan haitallista, mitä en usko sen olevan, se on erilaisten äänien puuttumista - tai ainakin kunnioituksen puutetta.

"Näemme sen koko ajan tekniikassa. Kun tarkastelet kasvojentunnistusta, joka ei pysty erottamaan eri mustia kasvoja, tai kun tarkastelemme lääketiedettä ja huomaamme, että lääkitystä on testattu vain tietyllä sukupuolella. Nämä ovat suurempia keskusteluja, eikä YouTube ole vapautettu siitä."