Connect with us

Ajatusjohtajat

AI-First tarkoittaa Turvallisuus-First

mm

Osta lapselle uusi polkupyörä, ja polkupyörä saa kaiken huomion – ei niin paljon kuin sen mukana tuleva kiiltävä kypärä. Mutta vanhemmat arvostavat kypärää.

Pelkään, että meistä monista on lapsenomainen suhtautuminen AI:hin. Olemme kiinnostuneita siitä, kuinka cool se on ja kuinka nopeasti voimme sen kanssa edetä. Emme niin paljon siitä, mitä voimme tehdä pysyäksemme turvassa sen käytön aikana. Se on valitettavaa, koska et voi hyötyä toisesta ilman toista.

Yksinkertaisesti sanottuna, AI:n soveltaminen ilman huolellista turvallisuuden suunnittelua ei ole vain riskialtista. Se on suora tie rotkoon.

Mikä on AI-turvallisuus?

AI-turvallisuus käsittää joukon toimia. Mutta ehkä tärkein tekijä on kun niitä toteutetaan. Jotta AI-turvallisuus olisi tehokas, se on oltava suunnittelun mukaista.

Se tarkoittaa, että meidän on mietittävä, miten estää vahinkoa ennen kuin otamme sen kokeiluun. Meidän on selvitettävä, miten varmistaa, että AI toimii ja tuottaa tuloksia, jotka ovat linjassa arvojemme ja sosiaalisten odostusten kanssa, ennen kuin saamme jotain kauheaa tulosta.

AI-turvallisuuden suunnittelu sisältää myös ajattelun siitä, miten tehdä siitä kestävä, eli kykenevä toimimaan ennustettavasti myös epäedullisissa tilanteissa. Se tarkoittaa myös tehdä AI:sta läpinäkyvää, jotta AI:n tekemät päätökset ovat ymmärrettävissä, tarkastettavissa ja puolueettomia.

Mutta se sisältää myös katsauksen maailmaan, jossa AI toimii. Mitkä institutionaaliset ja oikeudelliset turvallisuuden varmistamismekanismit tarvitaan, erityisesti noudattaaksesi soveltuvia hallituksen sääntöjä? Ja en voi liiemmälti korostaa ihmisten osuutta: Mitä vaikutusta AI:n käytölle on ihmisille, jotka vuorovaikuttavat sen kanssa?

Turvallisuus suunnittelun mukaan tarkoittaa AI-turvallisuuden upottamista kaikkiin prosesseihimme, työnkulkuihimme ja toimintoihimme ennen kuin kirjoitamme ensimmäisen ohjauksensa.

Riskit ylittävät huolen

Kaikki eivät ole samaa mieltä. Kun he kuulevat “turvallisuus ensin”, jotkut kuulevat “astu niin varovasti ja hitaasti, että jäämme jälkeen”. Tietysti se ei ole, mitä turvallisuus ensin tarkoittaa. Se ei tarvitse tukahduttaa innovaatiota tai hidastaa markkinoille menoa. Eikä se tarkoita loputonta joukkoa koekäyttöjä, jotka eivät koskaan laajene.

Se tarkoittaa ymmärtämistä siitä, mitä ei AI:n turvallisuuden suunnitteluun vaikuttaa. Tarkastellaan muutamia.

  • Deloitte’n Center for Financial Services ennustaa, että GenAI voi olla vastuussa petosvahingoista, jotka saavuttavat 40 miljardia dollaria Yhdysvalloissa vuoteen 2027 mennessä, 12,3 miljardista dollarista vuonna 2023, 32 %:n vuotuinen kasvu.
  • Harhaanjohtavat päätökset. Tapaukset dokumentoivat harhaanjohtavaa lääketieteellistä hoitoa johtuen AI:sta, joka oli koulutettu harhaanjohtavalle datale.
  • Huonot päätökset, jotka innoittavat muita huonoja päätöksiä. Pahempaa kuin alkuperäinen huono päätös, joka oli aiheutunut virheellisestä AI:sta, tutkimukset osoittavat, että nämä virheelliset päätökset voivat muodostua osaksi siitä, miten ajattelemme ja teemme tulevaisuuden päätöksiä.
  • Todelliset seuraukset. AI, joka antaa huonoa lääketieteellistä neuvontaa, on ollut vastuussa kuolemista potilastuloksissa. Oikeudelliset ongelmat ovat seuranneet AI:n hallusinaation mainitsemisesta oikeudellisena esimerkkinä. Ja ohjelmistovirheet, jotka johtuvat AI-avustajan antamasta virheellisestä tiedosta, ovat pilaanneet yritysten tuotteita ja mainetta ja johtaneet laajaan käyttäjien tyytymättömyyteen.

Ja asiat ovat jo tulossa entistä mielenkiintoisemmiksi.

Agenteille perustuvan AI:n syntymä ja nopea omaksuminen korostaa AI-turvallisuuden suunnittelun tärkeyttä.

AI-agentti, joka voi toimia puolestasi, voi olla erittäin hyödyllinen. Sen sijaan, että se kertoo sinulle parhaista lennoista matkalle, se voi etsiä ne ja varata ne puolestasi. Jos haluat palauttaa tuotteen, yrityksen AI-agentti voi kertoa sinulle palautuspolitiikasta ja siitä, miten haetaan palautusta, ja myös käsitellä koko transaktiota puolestasi.

Hienoa – kunhan agentti ei hallucinoi lentoa tai käsittele väärin rahallista tietoa. Tai ymmärtää väärin yrityksen palautuspolitiikkaa ja kieltäytyy hyväksymästä voimassa olevia palautuksia.

On helppo nähdä, miten nykyiset AI-turvallisuuden riskit voivat helposti kasautua joukon AI-agenteille, jotka tekevät päätöksiä ja toimivat, erityisesti koska ne eivät todennäköisesti toimi yksin. Suurin osa agenteille perustuvan AI:n todellisesta arvosta tulee agenttitiimistä, joissa yksittäiset agentit käsittelevät tehtävien osia ja tekevät yhteistyötä agentti-agentin kanssa saadakseen työn tehtyä.

Miten voit omaksua AI-turvallisuuden suunnittelun ilman, että se hidastaa innovaatiota ja tappaa sen potentiaalisen arvon?

Turvallisuus suunnittelun mukaan toiminnassa

Ad hoc -turvallisuustarkastukset eivät ole vastaus. Mutta turvallisuuden käytäntöjen integroiminen jokaiseen vaiheeseen AI-toteutuksessa on.

Aloita datalla. Varmista, että data on merkitty, annotoitu tarpeen mukaan, puolueettomia ja laadukasta. Tämä on erityisen tärkeää koulutusdataa varten.

Kouluta mallisi ihmisten palautteen avulla, koska ihmisten arvio on välttämätöntä muotoilmaan mallin käyttäytymistä. Vahvistusoppiminen ihmisten palautteella (RLHF) ja muut samankaltaiset tekniikat sallivat annotaattorien arvioida ja ohjata vastauksia, auttaen LLM: iä generoimaan tuloksia, jotka ovat turvallisia ja linjassa ihmisten arvojen kanssa.

Sitten, ennen kuin julkaiset mallin, testaa se. Punaiset tiimit, jotka yrittävät provosoida turvattomia käyttäytymisiä käyttämällä vastakkaisia kehoteita, reunatapauksia ja yritettyjä vankilapakoja, voivat paljastaa haavoittuvuuksia. Korjaaminen niistä ennen kuin ne pääsevät julkisuuteen pitää asiat turvallisina ennen kuin ongelmaa on.

Koska tämä testaus varmistaa, että AI-mallisi on kestävä, jatka sen seuraamista silmällä pidettäväksi uusista uhista ja sopeutumisista, jotka saattavat olla tarpeen malleihin.

Samalla tavoin, seuraa säännöllisesti sisällön lähteitä ja digitaalista vuorovaikutusta petosten merkkien varalta. Kriittisesti, käytä hybridisen AI-ihmisen lähestymistapaa, jossa AI-automatiikka huolehtii valtavasta datamäärästä, jota on seurattava, ja koulutetut ihmiset käsittelevät tarkastukset voimaanpanon ja tarkkuuden varmistamiseksi.

Agenteille perustuvan AI:n soveltaminen vaatii vielä enemmän huolellisuutta. Perusvaatimus: kouluta agentti tietämään rajoituksensa. Kun se kohtaa epävarmuutta, eettisiä dilemmatiikkaa, uusia tilanteita tai erityisen korkean panoksen päätöksiä, varmista, että se tietää, miten pyytää apua.

Suunnittele myös jäljittävyyttä agentteihisi. Tämä on erityisen tärkeää, jotta niiden vuorovaikutus tapahtuu vain vahvistettujen käyttäjien kanssa, jotta petolliset toimijat eivät vaikuta agentin toimintaan.

Jos ne näyttävät toimivan tehokkaasti, se voi olla houkuttelevaa antaa heidän toimia vapaasti ja antaa heidän tehdä asiansa. Kokemuksemme sanoo, että meidän on jatkettava heidän seuraamista ja tehtävien seuraamista virheiden tai odottamattoman käyttäytymisen havaitsemiseksi. Käytä sekä automaattisia tarkastuksia että ihmisen tarkastusta.

Itse asiassa, AI-turvallisuuden olennainen tekijä on säännöllinen ihmisten osallistuminen. Ihmisten on tarkoituksella osallistuttava kriittisiin arvioihin, empatiaan tai monitahoisiin ja epäselvyyksiin liittyvissä päätöksissä tai toimissa.

Taas, on selvää, että nämä kaikki käytännöt on rakennettu AI-toteutukseen etukäteen, suunnittelun mukaan. Ne eivät ole seurausta siitä, että jotain meni pieleen ja sitten ryhdytään keksimään, miten vähentää vahinkoa.

Toimiko se?

Olemme soveltaneet AI-turvallisuuden ensin -filosofiaa ja “suunnittelun mukaan” -kehystä asiakkaidemme kanssa GenAI:n syntymän aikana ja nyt agenteille perustuvan AI:n nopealla raidella. Havaitsemme, että, vastoin huolia siitä, että se hidastaa asioita, se itse asiassa auttaa niiden kiihdyttämistä.

Agenteille perustuva AI voi laskea asiakastukea 25-50 % ja samalla lisätä asiakastyytyväisyyttä. Mutta se riippuu luottamuksesta.

Ihmiset, jotka käyttävät AI:ta, on luotettava siihen, ja asiakkaat, jotka vuorovaikuttavat AI-pohjaisen ihmisen agentin tai itse AI-agentin kanssa, eivät voi kokea yhtäkään vuorovaikutusta, joka horjuttaisi heidän luottamustaan. Yksi huono kokemus voi tuhota luottamuksen brändiin.

Emme luota siihen, mitä ei ole turvallista. Kun rakennamme turvallisuuden jokaiseen AI-kerrokseen, jota olemme valmiit julkaisemaan, voimme tehdä sen luottamuksella. Ja kun olemme valmiit laajentamaan sen, voimme tehdä sen nopeasti – luottamuksella.

Vaikka AI-turvallisuuden käytäntöjen soveltaminen käytännössä voi tuntua hämmästyttävältä, et ole yksin. On paljon asiantuntijoita, jotka voivat auttaa, ja kumppaneita, jotka voivat jakaa, mitä he ovat oppineet ja mitä he ovat oppimassa, jotta voit hyödyntää AI:n arvoa turvallisesti ilman hidastumista.

Joe Anderson on TaskUsin seniorijohtaja konsultoinnista ja digitaalisen muutoksen johtamisesta, jossa hän johtaa markkinointistrategiaa ja innovaatioita. Hän keskittyy tekoälyjen, asiakaskokemusten ja digitaalisten operaatioiden leikkauskohdassa ja johtaa TaskUsin uutta agenssia tekoälykonsultointikäytännössä.