tynkä Tekoälyn eettiset periaatteet läpikäyvät meta-analyysin, ihmisoikeuksia korostetaan - Unite.AI
Liity verkostomme!

Etiikka

Tekoälyn eettiset periaatteet läpikäyvät meta-analyysin, ihmisoikeuksia korostetaan

mm

Julkaistu

 on

Vuonna 2019 AI-etiikka keskittyi enemmän kuin koskaan ennen. Kuitenkin suuri osa tästä keskustelusta vaikutti utuiselta, ilman kodifioitua lähestymistapaa. Pikemminkin eri yritykset loivat omat puitteet ja politiikkansa tekoälyn etiikkaan liittyen. Konsensus tekoälyn eettisistä kysymyksistä on tärkeää, koska se auttaa päättäjiä luomaan ja mukauttamaan politiikkoja, ja se antaa myös tietoa tutkijoiden ja tutkijoiden tekemästä työstä. Tämän lisäksi tekoälyyritysten on tiedettävä, missä eettiset rajat ovat, jos ne haluavat välttää epäeettisen tekoälyn toteutuksen. Jotta voisimme luoda paremman kuvan tekoälyn etiikan trendeistä, kuten VentureBeats raportoi, Berkman Klein Center Harvardin yliopistossa tehnyt meta-analyysin olemassa olevista tekoälyn eettisistä periaatteista ja kehyksistä.

Analyysin tekijöiden mukaan tutkijat halusivat vertailla periaatteita rinnakkain etsiäkseen päällekkäisyyttä ja eroa. Jessica Fjeld, Harvard Law Schoolin Cyberlaw Clinicin apulaisjohtaja, selitti, että tutkimusryhmä halusi "paljastaa piilevän vauhdin katkenneessa, maailmanlaajuisessa keskustelussa tekoälyn tulevaisuudesta, mikä johti tähän valkoiseen kirjaan ja siihen liittyvään datan visualisointiin".

Analyysin aikana tiimi tarkasteli 36 erilaista tekoälyn periaatedokumenttia, jotka ovat peräisin ympäri maailmaa ja peräisin useista eri organisaatiotyypeistä. Tutkimustulokset osoittivat, että monissa asiakirjoissa esiintyi jatkuvasti kahdeksan teemaa.

Yksityisyys ja vastuullisuus olivat kaksi yleisimmin esiintyvää eettistä teemaa, samoin kuin tekoälyn turvallisuus. Läpinäkyvyys/selitettävyys oli myös yleisesti mainittu tavoite, ja vuoden 2019 aikana on monia yrityksiä tehdä algoritmeista selvempiä. Reiluus/syrjimättömyys oli toinen eettinen painopiste, mikä kuvastaa kasvavaa huolta datan harhasta. Myös teknologian ihmisen hallinnan varmistaminen eikä päätösvallan luovuttaminen tekoälylle mainittiin voimakkaasti. Ammattivastuu oli seitsemäs tutkijoiden löytämä yhteinen teema. Lopuksi tutkijat havaitsivat jatkuvasti mainitsemistaan ​​inhimillisten arvojen edistämisestä tutkimistaan ​​tekoälyn eettisistä asiakirjoista.

Tutkimusryhmä antoi laadullisia ja kvantitatiivisia erittelyjä siitä, miten nämä teemat ilmenivät tekoälyn eettisessä dokumentaatiossa tutkimuksessaan ja oheisessa asiakirjassa. kartta. Kartta näyttää, missä kukin teema mainittiin.

Tutkimusryhmä totesi, että suuri osa tekoälyn eettisestä keskustelusta pyöri ihmisarvoista ja -oikeuksista huolehtimisen ympärillä. Kuten tutkimuspaperi toteaa:

"64 % asiakirjoistamme sisälsi viittauksen ihmisoikeuksiin, ja viidessä asiakirjassa [14 %] käytettiin kansainvälisiä ihmisoikeuksia kehyksenä toiminnalleen."

Viittaukset ihmisoikeuksiin ja arvoihin olivat yleisempiä yksityisen sektorin ryhmien ja kansalaisyhteiskunnan ryhmien tuottamissa asiakirjoissa. Tämä osoittaa, että tekoälyn yksityisen sektorin yritykset eivät ole huolissaan vain voitoista, vaan tekoälyn tuottamisesta eettisellä tavalla. Samaan aikaan valtion virastot näyttävät olevan vähemmän huolissaan tai tietoisia tekoälyetiikasta yleisesti, sillä alle puolet tekoälyyn liittyvistä asiakirjoista on peräisin valtion virastoilta, jotka koskevat itseään tekoälyn etiikkaan.

Tutkijat totesivat myös, että jos heidän tutkimansa asiakirjat olivat tuoreempia, ne käsittelivät todennäköisemmin kaikkia kahdeksaa näkyvintä teemaa muutaman sijaan. Tämä tosiasia viittaa siihen, että eettisen tekoälyn käytön taustalla olevat ajatukset alkavat sulautua niiden keskuudessa, jotka johtavat tekoälyn etiikkaa koskevaa keskustelua. Lopuksi tutkijat toteavat, että näiden periaatteiden onnistuminen tekoälyn kehittämisen ohjauksessa riippuu siitä, kuinka hyvin ne ovat integroituneet tekoälykehitysyhteisöön yleisesti. Tutkijat kertovat lehdessä:

”Lisäksi periaatteet ovat hallinnon alku, eivät loppu. Jotkin periaatteet eivät todennäköisesti ole yksinään vakuuttavampia kuin kevyesti. Sen vaikutus riippuu todennäköisesti siitä, kuinka se on upotettu laajempaan hallintoekosysteemiin, mukaan lukien esimerkiksi asiaankuuluvat politiikat (esim. kansalliset tekoälysuunnitelmat), lait, määräykset, mutta myös ammatilliset käytännöt ja päivittäiset rutiinit.

Bloggaaja ja ohjelmoija erikoisaloilla Koneen oppiminen ja Deep Learning aiheita. Daniel toivoo voivansa auttaa muita käyttämään tekoälyn voimaa yhteiskunnalliseen hyvään.