Liity verkostomme!

Ajatusten johtajat

Tekoäly ensin tarkoittaa turvallisuutta ensin

mm

Osta lapselle upouusi pyörä, niin pyörä saa kaiken huomion – ei sen mukana tuleva kiiltävä kypärä. ​​Mutta vanhemmat arvostavat kypärää.

Pelkäänpä, että monet meistä ovat nykyään enemmän kuin lapsia tekoälyn suhteen. Keskitymme siihen, kuinka siistiä se on ja kuinka nopeasti voimme edetä sen kanssa. Emme niinkään keskity siihen, mitä voimme tehdä pysyäksemme turvassa, vaan siihen, miten käytämme sitä. Se on sääli, koska et voi saada toisen etua ilman toista.

Yksinkertaisesti sanottuna tekoälyn soveltaminen ilman huolellista turvallisuussuunnittelua ei ole vain riskialtista. Se on suora tie alas jyrkänteeltä.

Mitä tekoälyn turvallisuus edes tarkoittaa?

Tekoälyn turvallisuuteen liittyy useita vaiheita. Mutta ehkä tärkein elementti on kun ottaa ne. Jotta tekoälyn turvallisuus olisi tehokasta, sen on oltava suunnittelultaan.

Tämä tarkoittaa, että pohdimme, miten voimme ehkäistä vahinkoja, ennen kuin kokeilemme tekoälyä. Selvitämme ensin, miten voimme varmistaa, että tekoäly toimii ja tuottaa tuloksia arvojemme ja yhteiskunnallisten odotustemme mukaisesti – emme vasta sitten, kun olemme saaneet kamalia tuloksia.

Tekoälyn turvallisuuden suunnitteluun kuuluu myös sen miettiminen, miten siitä tehdään vankka eli kyvykäs toimimaan ennustettavasti myös vaikeissa tilanteissa. Se tarkoittaa tekoälyn läpinäkyvyyttä, jotta tekoälyn tekemät päätökset ovat ymmärrettäviä, auditoitavissa olevia ja puolueettomia.

Mutta siihen kuuluu myös tarkastelu maailmasta, jossa tekoäly tulee toimimaan. Mitä institutionaalisia ja oikeudellisia suojatoimia tarvitsemme, erityisesti noudattaaksemme sovellettavia viranomaismääräyksiä? Enkä voi liikaa korostaa ihmisten merkitystä: Millainen vaikutus tekoälyn käytöllä on sen kanssa vuorovaikutuksessa oleviin ihmisiin?

Turvallisuus sisäänrakennettuna tarkoittaa tekoälyn avulla toteutetun turvallisuuden sisällyttämistä kaikkiin prosesseihimme, työnkulkuihimme ja toimintoihimme jo ennen ensimmäisen kehotteen kirjoittamista.

Riskit painavat enemmän kuin huolenaiheet

Kaikki eivät ole samaa mieltä. Kun he kuulevat ”turvallisuus ensin”, jotkut kuulevat ”astu niin varovasti ja hitaasti, että jää jälkeen”. Turvallisuus ensin ei tietenkään tarkoita sitä. Sen ei tarvitse tukahduttaa innovaatioita tai hidastaa markkinoilletuloa. Eikä se tarkoita loputonta virtaa pilottihankkeita, jotka eivät koskaan skaalaudu. Päinvastoin.

Se tarkoittaa riskien ymmärtämistä emme turvallisuuden suunnittelu tekoälyyn. Harkitse vain muutamia.

  • Deloitten finanssipalvelukeskus ennustaa, että GenAI voi olla vastuussa petosten aiheuttamista tappioista, jotka nousevat pelkästään Yhdysvalloissa 40 miljardiin dollariin vuoteen 2027 mennessä, kun vuonna 2023 vastaava luku oli 12.3 miljardia dollaria, mikä on 32 prosentin vuotuinen kasvuvauhti.
  • Puolueelliset päätökset. Tapausasiakirja puolueellinen lääketieteellinen hoito vääristyneellä datalla koulutetun tekoälyn vuoksi.
  • Huonoja päätöksiä, jotka inspiroivat lisää huonoja päätöksiä. Pahempi kuin alkuperäinen huono päätös, jonka viallinen tekoäly aiheutti, tutkimukset osoittavat että näistä virheellisistä päätöksistä voi tulla osa ajattelutapaamme ja tulevaisuuden päätöksiämme.
  • Todelliset seuraukset. Huonoja lääketieteellisiä neuvoja antava tekoäly on johtanut potilaiden kuolemaan johtaneisiin seurauksiin. Tekoälyn hallusinaatioiden käyttäminen oikeudellisena ennakkotapauksena on johtanut oikeudellisiin ongelmiin. Ja tekoälyavustajan antamasta väärästä tiedosta johtuvat ohjelmistovirheet ovat tahranneet yritysten tuotteita ja mainetta sekä johtaneet laajaan käyttäjien tyytymättömyyteen.

Ja asiat ovat muuttumassa entistä mielenkiintoisemmiksi.

Tuleminen ja agenttisen tekoälyn nopea käyttöönottoTekoäly, joka pystyy toimimaan itsenäisesti ja toimimaan tekemiensä päätösten perusteella, korostaa tekoälyn turvallisuuden suunnittelun merkitystä.

Tekoälyagentti, joka voi toimia puolestasi, voisi olla erittäin hyödyllinen. Sen sijaan, että se kertoisi sinulle parhaat lennot matkallesi, se voisi löytää ne ja varata ne puolestasi. Jos haluat palauttaa tuotteen, yrityksen tekoälyagentti ei voisi vain kertoa sinulle palautuskäytäntöä ja palautuksen tekemistä, vaan myös hoitaa koko tapahtuman puolestasi.

Hienoa – kunhan asiakaspalvelija ei hallusinoi lentoa tai käsittele taloustietojasi väärin. Tai ymmärrä yrityksen palautuskäytäntöä väärin ja hylkää pätevät palautukset.

Ei ole liian vaikea nähdä, miten nykyiset tekoälyn turvallisuusriskit voisivat helposti kasaantua, kun joukko tekoälyagentteja juoksee ympäriinsä tekemässä päätöksiä ja toimimassa, varsinkin kun he eivät todennäköisesti toimi yksin. Suuri osa agenttisen tekoälyn todellisesta arvosta tulee agenttitiimeistä, joissa yksittäiset agentit hoitavat osia tehtävistä ja tekevät yhteistyötä – agentti agentille – saadakseen työn tehtyä.

Joten miten tekoälyn turvallisuus otetaan huomioon sisäänrakennetusti estämättä innovaatioita ja tuhoamatta sen potentiaalista arvoa?

Turvallisuutta suunnittelun avulla käytännössä

Ad hoc -turvallisuustarkastukset eivät ole ratkaisu. Mutta turvallisuuskäytäntöjen integrointi tekoälyn käyttöönoton jokaiseen vaiheeseen on.

Aloita datasta. Varmista, että data on merkitty, tarvittaessa annotoitu, vinoumaton ja korkealaatuinen. Tämä pätee erityisesti harjoitusdataan.

Kouluta mallejasi ihmisen palautteen avulla, sillä ihmisen harkintakyky on olennaista mallin käyttäytymisen muokkaamisessa. Vahvistusoppiminen ihmisen palautteen avulla (RLHF) ja muut vastaavat tekniikat antavat annotaattoreille mahdollisuuden arvioida ja ohjata vastauksia, mikä auttaa oikeustieteen maistereita tuottamaan turvallisia ja ihmisen arvojen mukaisia ​​​​tuloksia.

Ennen mallin julkaisua tee sille stressitesti. Punaiset tiimit, jotka yrittävät provosoida vaarallista käyttäytymistä käyttämällä vastakkainasetteluja, reunatapauksia ja jailbreak-yrityksiä, voivat paljastaa haavoittuvuuksia. Niiden korjaaminen ennen kuin ne pääsevät julkisuuteen pitää asiat turvassa ennen kuin ongelmia syntyy.

Vaikka tämä testaus varmistaa tekoälymalliesi vankkuuden, pidä niitä silmällä uusia uhkia ja mallien mahdollisesti tarvittavia muutoksia.

Samalla tavalla seuraa säännöllisesti sisällön lähteitä ja digitaalista vuorovaikutusta petosten merkkien varalta. Ratkaisevasti käytä tekoälyn ja ihmisen hybridilähestymistapaa, jossa tekoälyautomaatio hoitaa valtavan tietomäärän ja ammattitaitoiset ihmiset suorittavat tarkistukset valvonnan ja tarkkuuden varmistamiseksi.

Agenttisen tekoälyn soveltaminen vaatii vielä enemmän huolellisuutta. Perusvaatimus: kouluta agentti tuntemaan rajoituksensa. Kun se kohtaa epävarmuutta, eettisiä ongelmia, uusia tilanteita tai erityisen tärkeitä päätöksiä, varmista, että se osaa pyytää apua.

Suunnittele myös jäljitettävyys agentteihisi. Tämä on erityisen tärkeää, jotta vuorovaikutus tapahtuu vain vahvistettujen käyttäjien kanssa, jotta vältetään vilpillisten toimijoiden vaikutus agenttien toimintaan.

Jos he näyttävät työskentelevän tehokkaasti, voi olla houkuttelevaa päästää agentit irti ja antaa heidän tehdä omat juttunsa. Kokemuksemme mukaan heitä ja heidän suorittamiaan tehtäviä kannattaa seurata jatkuvasti virheiden tai odottamattoman käyttäytymisen varalta. Käytä sekä automatisoituja tarkistuksia että ihmisen suorittamaa tarkistusta.

Itse asiassa tekoälyn turvallisuuden olennainen osa on ihmisen säännöllinen osallistuminen. Ihmisten tulisi olla tarkoituksella mukana silloin, kun päätökseen tai toimintaan liittyy kriittistä harkintaa, empatiaa tai vivahteita ja epäselvyyksiä.

Jälleen kerran, selvyyden vuoksi, nämä kaikki ovat käytäntöjä, jotka sisällytetään tekoälyn toteutukseen etukäteen, suunnitteluNe eivät ole seurausta siitä, että jokin menee pieleen ja sitten kiirehditään miettimään, miten vahinkoja voitaisiin minimoida.

Toimiiko se?

Olemme soveltaneet asiakkaidemme kanssa tekoälyn turvallisuus ensin -filosofiaa ja "by design" -viitekehystä koko GenAI:n kehityksen ajan ja nyt agenttisen tekoälyn nopean etenemisen ajan. Huomaamme, että vaikka pelätään sen hidastavan toimintaa, se itse asiassa kiihdyttää sitä.

Agenttisella tekoälyllä on potentiaalia esimerkiksi alentaa asiakastuen kustannuksia 25–50 % ja samalla parantaa asiakastyytyväisyyttä. Mutta kaikki riippuu luottamuksesta.

Tekoälyä käyttävien ihmisten on luotettava siihen, eivätkä asiakkaat, jotka ovat vuorovaikutuksessa tekoälyn avulla toimivien ihmisagenttien tai todellisten tekoälyagenttien kanssa, saa kokea yhtäkään vuorovaikutusta, joka heikentäisi heidän luottamustaan. Yksikin huono kokemus voi pyyhkiä pois luottamuksen brändiin.

Emme luota siihen, mikä ei ole turvallista. Joten kun rakennamme turvallisuuden jokaiseen käyttöön ottamamme tekoälyn kerrokseen, voimme tehdä sen luottavaisin mielin. Ja kun olemme valmiita skaalaamaan sen, pystymme tekemään sen nopeasti – luottavaisin mielin.

Vaikka tekoälyn turvallisuus ensin -periaatteen toteuttaminen käytännössä saattaa tuntua ylivoimaiselta, et ole yksin. Tarjolla on monia asiantuntijoita apuna ja kumppaneita, jotka voivat jakaa oppimaansa ja oppimaansa, jotta voit hyödyntää tekoälyn arvoa turvallisesti hidastamatta itseäsi.

Tekoäly on ollut tähän mennessä jännittävä matka, ja matkan kiihtyessä se tuntuu entistäkin jännittävämmältä. Mutta olen myös iloinen, että käytän kypärää.

Joe Anderson on konsultoinnin ja digitaalisen transformaation vanhempi johtaja Tehtävät, jossa hän johtaa markkinoilletulostrategiaa ja innovaatioita. Hän keskittyy tekoälyn, asiakaskokemuksen ja digitaalisen toiminnan yhtymäkohtiin ja johtaa TaskUsin uutta agenttista tekoälykonsultointitoimintaa.