Miten tekoäly voisi valvoa vaarallisia jälkeläisiä

Sisällysluettelo:

Miten tekoäly voisi valvoa vaarallisia jälkeläisiä
Miten tekoäly voisi valvoa vaarallisia jälkeläisiä
Anonim

Keeawayt

  • Uusi paperi väittää, että tekoäly voi määrittää, mitkä tutkimushankkeet saattavat tarvita enemmän sääntelyä kuin muut.
  • Se on osa kasvavaa pyrkimystä selvittää, millainen tekoäly voi olla vaarallista.
  • Yksi asiantuntija sanoo, että tekoälyn todellinen vaara on, että se voi tehdä ihmisistä tyhmiä.

Image
Image

Tekoäly (AI) tarjoaa monia etuja, mutta myös joitakin mahdollisia vaaroja. Ja nyt tutkijat ovat ehdottaneet menetelmää pitää silmällä heidän tietokonepohjaisia luomuksiaan.

Kansainvälinen tiimi sanoo uudessa artikkelissa, että tekoäly voi määrittää, minkä tyyppiset tutkimusprojektit saattavat tarvita enemmän sääntelyä kuin muut. Tiedemiehet käyttivät mallia, joka yhdistää biologian ja matematiikan käsitteitä ja on osa kasvavaa pyrkimystä selvittää, millainen tekoäly voi olla vaarallinen.

"Tietenkin, vaikka tekoälyn "scifi"-vaarallinen käyttö saattaa ilmaantua, jos päätämme niin […], tekoäly ei tee vaaralliseksi itse tekoälystä, vaan [kuin käytämme sitä], " Thierry Rayna, Technology for Change -yksikön puheenjohtaja École Polytechniquessa Ranskassa, kertoi Lifewirelle sähköpostihaastattelussa. "Tekoälyn toteuttaminen voi olla joko osaamista lisäävää (esimerkiksi se vahvistaa ihmisen/työntekijän taitojen ja tietojen relevanssia) tai osaamista tuhoavaa, eli tekoäly tekee olemassa olevista taidoista ja tiedoista vähemmän hyödyllisiä tai vanhentuneita."

Pidä välilehtiä

Äskettäisen artikkelin kirjoittajat kirjoittivat postauksessaan, että he rakensivat mallin hypoteettisten tekoälykilpailujen simuloimiseksi. He suorittivat simulaation satoja kertoja yrittääkseen ennustaa, kuinka todelliset tekoälykilpailut voisivat toimia.

"Muuttuja, jonka havaitsimme erityisen tärkeäksi, oli kilpailun "pituus" - aika, jonka simuloiduilla kilpailuillamme kului saavuttaakseen tavoitteensa (toiminnallinen tekoälytuote), tutkijat kirjoittivat. "Kun tekoälykilpailut saavuttivat tavoitteensa nopeasti, havaitsimme, että kilpailijat, joiden olimme koodannut aina unohtaa turvatoimet, voittivat aina."

Tutkijat havaitsivat sitä vastoin, että pitkän aikavälin tekoälyprojektit eivät olleet yhtä vaarallisia, koska voittajat eivät aina olleet turvallisuuden huomiotta jättäneet. "Nämä havainnot huomioon ottaen on tärkeää, että sääntelyviranomaiset määrittävät, kuinka kauan erilaiset tekoälykilpailut todennäköisesti kestävät soveltaen erilaisia säännöksiä niiden odotettujen aikarajojen perusteella", he kirjoittivat. "Tuloksemme viittaavat siihen, että yksi sääntö kaikille tekoälykilpailuille - sprintistä maratoniin - johtaa joihinkin tuloksiin, jotka ovat kaukana ihanteellisista."

David Zhao, tekoälyä konsultoivan yrityksen Coda Strategyn toimitusjohtaja, sanoi Lifewiren sähköpostihaastattelussa, että vaarallisen tekoälyn tunnistaminen voi olla vaikeaa. Haasteet piilevät siinä tosiasiassa, että tekoälyn nykyaikaiset lähestymistavat perustuvat syvälliseen oppimiseen.

"Tiedämme, että syväoppiminen tuottaa parempia tuloksia monissa käyttötapauksissa, kuten kuvantunnistuksessa tai puheentunnistuksessa", Zhao sanoi. "Ihmisten on kuitenkin mahdotonta ymmärtää, miten syväoppimisalgoritmi toimii ja miten se tuottaa tulosta. Siksi on vaikea sanoa, onko hyviä tuloksia tuottava tekoäly vaarallinen, koska ihmisten on mahdotonta ymmärtää, mitä tapahtuu."

Ohjelmisto voi olla "vaarallinen", kun sitä käytetään kriittisissä järjestelmissä, joissa on haavoittuvuuksia, joita huonot toimijat voivat hyödyntää tai tuottaa vääriä tuloksia, Matt Shea, tekoälyyrityksen MixModen strategiajohtaja, sanoi sähköpostitse. Hän lisäsi, että vaarallinen tekoäly voi myös johtaa tulosten virheelliseen luokitteluun, tietojen menettämiseen, taloudellisiin vaikutuksiin tai fyysisiin vaurioihin.

"Perinteisillä ohjelmistoilla kehittäjät koodaavat algoritmeja, joita henkilö voi tutkia selvittääkseen, kuinka haavoittuvuus voidaan korjata tai korjata vika katsomalla lähdekoodia", Shea sanoi."Tekoälyssä suurin osa logiikasta luodaan kuitenkin itse tiedosta, joka on koodattu tietorakenteisiin, kuten hermoverkkoihin ja vastaaviin. Tämä johtaa järjestelmiin, jotka ovat "mustia laatikoita", joita ei voida tutkia haavoittuvuuksien löytämiseksi ja korjaamiseksi. kuten normaali ohjelmisto."

vaarat edessä?

Vaikka tekoäly on kuvattu The Terminatorin k altaisissa elokuvissa pahana voimana, joka aikoo tuhota ihmiskunnan, todelliset vaarat voivat olla proosaisempia, asiantuntijat sanovat. Esimerkiksi Rayna ehdottaa, että tekoäly voisi tehdä meistä tyhmempiä.

"Se voi estää ihmisiä harjoittamasta aivojaan ja kehittämästä asiantuntemusta", hän sanoi.”Kuinka sinusta voi tulla riskipääoman asiantuntija, jos et käytä suurinta osaa ajasta startup-hakemusten lukemiseen? Mikä pahempaa, tekoäly on tunnetusti "musta laatikko" ja vähän selitettävissä. Jos et tiedä, miksi tietty tekoälypäätös tehtiin, siitä on hyvin vähän opittavaa, aivan kuten et voi tulla asiantuntijajuoksijaksi ajamalla stadionin ympäri Segwayllä.”

On vaikea sanoa, onko hyviä tuloksia tuottava tekoäly vaarallinen, koska ihmisten on mahdotonta ymmärtää, mitä tapahtuu.

Ehkä välittömin tekoälyn uhka on mahdollisuus, että se voi tuottaa puolueellisia tuloksia, Lyle Solomon, tekoälyn oikeudellisista vaikutuksista kirjoittava lakimies, sanoi sähköpostihaastattelussa.

"Tekoäly voi auttaa syventämään yhteiskunnallisia kahtiajakoja. Tekoäly rakentuu pääasiassa ihmisiltä kerätyistä tiedoista", Solomon lisäsi. "[Mutta] v altavasta datasta huolimatta se sisältää minimaalisia osajoukkoja, eikä se sisältäisi sitä, mitä kaikki ajattelevat. Näin ollen kommenteista, julkisista viesteistä, arvosteluista jne. kerätyt tiedot, joissa on luonnostaan ennakkoluuloja, saavat tekoälyn lisäämään syrjintää ja vihaa."

Suositeltava: