Connect with us

Emme enää kohdista tekoälyjä. Emme kohdista sivilisaatioita

Tekoäly

Emme enää kohdista tekoälyjä. Emme kohdista sivilisaatioita

mm

Monta vuotta tekoälyssä (AI) keskeinen kysymys oli, miten kohdistaa tekoälymallit ihmisten arvoihin. Tutkijat yrittivät määritellä turvallisuussäännöt, eettiset periaatteet ja valvontamekanismit, jotka ohjaavat tekoälyn päätöksiä. Tämä työ saavutti merkittävän edistymisen. Mutta nyt, kun nämä tekoälyjärjestelmät kasvavat yhä kykenevämmiksi ja laajemmiksi, kohdistamisen painopiste alkaa muuttua. Se, mistä aluksi oli yhden mallin haaste kohdistaa yhteen ohjeisiin, on nyt muuttunut paljon suuremmaksi haasteeksi: kohdistaa kokonaisia sivilisaatioita, jotka käyttävät näitä järjestelmiä maailmanlaajuisesti. Tekoäly ei ole enää vain työkalu. Se kehittyy ympäristöksi, jossa yhteiskunnat toimivat, viestivät, neuvottelevat ja kilpailevat. Tämän seurauksena kohdistaminen ei ole enää pelkästään tekninen ongelma. Se on muuttunut sivilisaatioiden ongelman. Tässä artikkelissa selitän, miksi kohdistaminen ei ole enää vain mallien asiasta ja miksi meidän on aloitettava ajattelu sivilisaatioiden sijaan koneiden kanssa. Käsittelen myös, miten tämä muutos vaikuttaa vastuuhomme ja mitä se merkitsee globaalille yhteistyölle.

Kuka tekoäly edustaa todella?

Jos kysyt tekoälyltä herkkää historiallista tapahtumaa, sen vastaus riippuu siitä, minkälaista dataa se on opiskellut. Jos data tulee pääasiassa länsimaisesta internetistä, vastaus on länsimaisen vallitsevan kulttuurin mukainen. Se priorisoi individualismia, avointa puhetta ja demokraattisia ihanteita. Nämä ovat hyviä arvoja monille ihmisille. Mutta ne eivät ole ainoat arvot maailmassa.

Käyttäjä Singaporessa, käyttäjä Riyadissa ja käyttäjä San Franciscossa ovat eri määritelmiä siitä, mikä on “hyödyllistä” ja mikä on “vahingollista”. Joissakin kulttuureissa sosiaalinen harmonia on tärkeämpää kuin ehdoton sananvapaus. Toisissa kulttuureissa hierarkian kunnioitus on tärkeämpää kuin keskeyttäminen.

Kun Silicon Valley -yhtiö käyttää “Reinforcement Learning from Human Feedback” (RLHF):ää, he palkkaavat ihmisiä arvioimaan tekoälyn vastauksia. Mutta keitä nämä ihmiset ovat? Mitkä ovat heidän uskomuksensa? Jos he kohdistaavat mallin amerikkalaisiin standardeihin, he rakentavat vahingossa amerikkalaisen kulttuuriexportin. He rakentavat digitaalisen diplomaatin, joka pakottaa yhden tietyn sivilisaation sääntöjä maailman loput osat.

Palautus silmukoiden nousu

Haaste ei ole vain se, että tekoäly heijastaa yhden kulttuurin uskomuksia. Se on, miten nämä uskomukset voivat muuttaa meitä. Nykyaikaiset tekoälyjärjestelmät voivat muokata yksilöiden, organisaatioiden ja jopa maiden käyttäytymistä. Ne voivat vaikuttaa siihen, miten ajattelemme, työskentelemme, luotamme ja kilpailemme. Tämä luo palautus silmukat tekoälyjärjestelmien ja ihmisyhteiskuntien välille; koulutamme tekoälyä ja tekoäly muokkaa, miten ajattelemme ja toimimme. Nämä silmukat ovat vahvistumassa, kun tekoäly on yleistymässä. Nähdäksesi, miten tämä palautus silmukka toimii, tässä on kaksi esimerkkiä:

  • Laajamittainen tekoälyn käyttöönotto muuttaa sosiaalista käyttäytymistä, ja sosiaalinen käyttäytymis muuttaa dataa, joka kouluttaa uusia järjestelmiä. Esimerkiksi suosittelualgoritmi voi muokata, mitä ihmiset katselevat, lukevat ja uskovat. Tuottavuustyökalut muokkaavat, miten tiimit tekevät yhteistyötä ja miten opiskelijat oppivat. Nämä käyttäytymisen muutokset muuttavat data-malleja eri katselutottumuksien, työpaikan viestintätottumuksien tai kirjoitustyylien muodossa. Kun tämä data virtaa tuleviin koulutusdataan, mallit sovittavat oletuksiaan ja tulostuksiaan vastaavasti. Inhimillinen käyttäytymis muokkaa malleja, ja mallit puolestaan muokkaavat inhimillistä käyttäytymistä.
  • Automaattiset päätöstyökalut vaikuttavat julkisiin päätöksiin, ja julkiset päätökset vaikuttavat tuleviin mallien koulutukseen. Esimerkiksi monet hallitukset käyttävät nyt tekoälyä ehdottamaan, mihin resursseja tulisi kohdistaa, kuten minkä naapurustojen tarvitsee enemmän terveydenhuollon tukea tai mitkä alueet voivat nähdä korkeamman rikosvaaran. Kun päättäjät toimivat näiden suositusten mukaan, näiden päätösten tulokset tulevat myöhemmin osaksi uusia datajoukkoja. Päätöksenteko, jota tekoäly on muokannut, lopulta muokkaa seuraavan sukupolven tekoälymalleja.

Kun tunnistat tämän palautus silmukan, se tulee selväksi, että tekoäly on vähitellen muokkaamassa ja kohdistamassa sivilisaatioita. Tämän seurauksena kansakunnat alkavat kysyä: Miten he voivat turvata arvonsa integroituuessaan tekoälyjärjestelmiin yhteiskuntiinsa ja instituutioihinsa?

Suvereenin tekoälyn nousu

Tämä kohdistamishaaste on herättänyt merkittävän reaktion hallituksissa maailmanlaajuisesti. Kansakunnat ovat tajunneet, että tuontitekoälyn riippuvuus on riski heidän suvereniteetilleen. He eivät voi maksaa sitä, että heidän kansalaisensa opetetaan, informoidaan ja neuvotaan mustasta laatikosta, joka ajattelee kuin vieras.

Tämä tajunta on johtanut “Suvereenin tekoälyn” nousuun. Ranska sijoittaa voimakkaasti rakentamaan malleja, jotka puhuvat ranskaa ja ymmärtävät ranskalaisen lain ja kulttuurin. Intia rakentaa kotimaisia tekoälymalleja varmistamaan kulttuurilliset arvonsa. Yhdistyneet arabiemiirikunnat ja Kiina rakentavat tekoälymalleja, jotka ovat kohdennettu heidän oman kansallisen visionsa mukaan.

Tämä on uusi asekilpailu. Se on kilpailu kertomuksen hallinnasta. Sivilisaatio, jolla ei ole omaa tekoälyä, menettää lopulta oman muistinsa. Jos lapsesi kysyvät koneelta kysymyksen, ja kone vastaa toisen kulttuurin logiikalla, kulttuurisi alkaa rapistua. Tämä tajunta voi kuitenkin johtaa erillisten digitaalisten lohkojen muodostumiseen. Saamme lopputulokseksi länsimaisen tekoälyn, kiinalaisen tekoälyn, intialaisen tekoälyn jne. Nämä järjestelmät toimivat eri tosiasioilla ja eri moraalisilla kompassilla. Nämä kehitykset osoittavat selvästi, että jos haluamme luoda yhden, todella kohdennetun tekoälymallin, meidän on ensin löydettävä tapa kohdenta sivilisaatioita.

Diplomaattisen tekoälyn tarve

Perinteinen kohdistaminen olettaa, että malli voidaan kohdista huolellisella koulutuksella, ohjaamisella ja varotoimilla. Tämä ajattelu tulee varhaisen tekoälyn turvallisuustutkimuksen teknisestä asenteesta. Mutta jopa täydellinen mallin tasoinen kohdistaminen ei voi ratkaista sivilisaatioiden kohdistamisen haasteita. Kohdistaminen ei voi pysyä vakaana, kun yhteiskunnat vetävät vastakkaisiin suuntiin. Jos maat, yritykset ja yhteisöt ovat ristiriitaisia tavoitteita, ne tulevat työntämään tekoälyjärjestelmiä heijastamaan näitä ristiriitoja. Nämä rajoitukset osoittavat, että kohdistaminen ei ole pelkästään tekninen ongelma. Se on hallinnon, kulttuurin ja koordinoinnin ongelma. Ja nämä ongelmat vaativat ei vain asiantuntijoita tai kehittäjiä. Ne vaativat koko sivilisaatioita.

Miten siis edetään? Jos hyväksymme, että universaali kohdistaminen on mahdotonta, meidän on muutettava strategiaamme. Meidän on lopetettava etsiminen teknisestä korjauksesta filosofiseen ongelmaan. Meidän on aloitettava ajattelu diplomaattien tavoin. Meidän on rakennettava protokollat “Sivilisaatioiden kohdistamiselle”. Meidän on selvitettävä, miten tekoäly voi kunnioittaa yhteiskunnan uskomuksia ja arvoja ilman, että se asettaa toisten kulttuurien uskomuksia. Toisin sanoen, meidän tarvitaan digitaalinen Yhdistyneet Kansakunnat algoritmejemme vuoksi.

Tämä vaatii avoimuutta. Tällä hetkellä emme tiedä, mitkä arvot ovat piilossa syvien neuroverkkojen kerroksissa. Me näemme vain tulosteen. Kohdistaaksemme sivilisaatioita, meidän on oltava selkeä “Perustuslain” kunkin mallin osalta. Mallin on kerrottava sen harhat. Se on sanottava: “Olen koulutettu tällä datalla, näillä turvallisuussäännöillä, priorisoiden näitä arvoja.” Vain kun harha on näkyvissä, voimme luottaa järjestelmään. Käyttäjän on mahdollista vaihdella näkemyksien välillä. Voit kysyä kysymyksen ja nähdä, miten “Länsimainen” malli vastaa verrattuna siihen, miten “Itäinen” malli vastaa. Tämä muuttaisi tekoälyn työkaluksi ymmärtämiseen, ei aivopesuun.

Päättely

Olemme viettäneet liian paljon aikaa huolehtimalla Terminatorista. Todellinen riski ei ole se, että robotti tuhoaa meidät. Todellinen riski on se, että robotti saa meidät unohtamaan, keitä olemme. Kohdistaminen ei ole koodi, jonka voimme kirjoittaa kerran ja unohtaa. Se on jatkuva neuvottelu tekoälymallien kanssa, jotta ne pysyvät kohdennettuina uskomuksiimme ja arvoihimme. Se on poliittinen teko. Kun siirrymme tähän seuraavaan vaiheeseen älymäisen aikakauteen, meidän on katsottava ulos näytön ulkopuolelle. Meidän on otettava huomioon, miten tekoäly tulkkaa historian, rajojen ja uskomustemme. Me rakennamme mieliä, jotka auttavat meitä hallitsemaan maailmaa. Meidän on varmistettava, että nämä mieli kunnioittavat sivilisaatioiden eroja.

Tohtori Tehseen Zia on COMSATS University Islamabadin apulaisprofessori, joka on suorittanut AI-tutkinnon Wienin Teknillisen yliopiston, Itävallassa. Erityisalanaan ovat Tekoäly, Konenäkö, Data Science ja Machine Learning, ja hän on tehnyt merkittäviä töitä julkaisemalla artikkeleita arvostetuissa tieteellisissä lehdissä. Tohtori Tehseen on myös johtanut useita teollisuusprojekteja pää tutkijana ja toiminut AI-konsulttina.