Liity verkostomme!

Ajatusten johtajat

Autonomisen tekoälyn kestävän turvallisuuden varmistaminen terveydenhuollossa

mm

Raivoisa sota tietomurtoja vastaan ​​on kasvava haaste terveydenhuollon organisaatioille maailmanlaajuisesti. Nykyisten tilastojen mukaan tietomurron keskimääräiset kustannukset ovat nyt $ 4.45 euroa maailmanlaajuisesti, mikä on yli kaksinkertaistunut 9.48 miljoonaan dollariin terveydenhuollon tarjoajille, jotka palvelevat potilaita Yhdysvalloissa. Tätä jo ennestään pelottavaa ongelmaa lisää organisaatioiden välinen ja sisäinen tiedon lisääntyminen. Huolestuttava 40 % paljastetuista tietomurroista sisältää tietoa, joka on levinnyt useisiin ympäristöihin, mikä laajentaa hyökkäyspinta-alaa huomattavasti ja tarjoaa hyökkääjille monia sisäänpääsyväyliä.

Generatiivisen tekoälyn kasvava autonomia tuo mukanaan radikaalin muutoksen aikakauden. Sen mukana tulee siis kiireellinen uusien tietoturvariskien aalto, kun nämä edistyneet älykkäät agentit siirtyvät teoriasta käyttöönottoon useilla aloilla, kuten terveydenhuoltoalalla. Näiden uusien uhkien ymmärtäminen ja lieventäminen on ratkaisevan tärkeää, jotta tekoälyä voidaan skaalata vastuullisesti ja parantaa organisaation sietokykyä kaikenlaisia ​​kyberhyökkäyksiä vastaan, olipa kyseessä sitten haittaohjelmauhkat, tietomurrot tai jopa hyvin organisoidut toimitusketjuhyökkäykset.

Resilienssi suunnittelu- ja toteutusvaiheessa

Organisaatioiden on omaksuttava kattava ja kehittyvä ennakoiva puolustusstrategia tekoälyn aiheuttamien kasvavien tietoturvariskien torjumiseksi, erityisesti terveydenhuollossa, jossa panokset koskevat sekä potilaiden hyvinvointia että sääntelytoimenpiteiden noudattamista.

Tämä vaatii systemaattista ja yksityiskohtaista lähestymistapaa, joka alkaa tekoälyjärjestelmien kehittämisestä ja suunnittelusta ja jatkuu näiden järjestelmien laajamittaiseen käyttöönottoon.

  • Ensimmäinen ja kriittisin askel, joka organisaatioiden on tehtävä, on kartoittaa ja mallintaa koko tekoälyprosessinsa uhkamallinnuksella, tiedon keräämisestä mallin koulutukseen, validointiin, käyttöönottoon ja päättelyyn. Tämä vaihe helpottaa kaikkien mahdollisten altistumis- ja haavoittuvuuskohtien tarkkaa tunnistamista riskien tarkkuuden perusteella, joka perustuu vaikutuksiin ja todennäköisyyteen.
  • Toiseksi on tärkeää luoda turvallisia arkkitehtuureja sellaisten järjestelmien ja sovellusten käyttöönottoa varten, jotka hyödyntävät suuria kielimalleja (LLM), mukaan lukien ne, joissa on Agentti AI ominaisuuksia. Tämä edellyttää erilaisten toimenpiteiden, kuten säilön turvallisuuden, turvallisen API-suunnittelun ja arkaluonteisten harjoitusdatajoukkojen turvallisen käsittelyn, huolellista harkintaa.
  • Kolmanneksi organisaatioiden on ymmärrettävä ja pantava täytäntöön eri standardien/kehysten suositukset. Esimerkiksi noudatettava standardien/kehysten laatimia ohjeita. NIST: n Tekoälyn riskienhallintakehys kattavaa riskien tunnistamista ja lieventämistä varten. He voisivat myös harkita OWASP:n neuvot LLM-sovellusten aiheuttamista ainutlaatuisista haavoittuvuuksista, kuten nopeasta injektoinnista ja epävarmasta tulosteen käsittelystä.
  • Lisäksi klassisten uhkien mallinnustekniikoiden on kehitettävä, jotta ne voivat tehokkaasti hallita tekoälyn luomia ainutlaatuisia ja monimutkaisia ​​hyökkäyksiä, mukaan lukien salakavalia datamyrkytyshyökkäyksiä, jotka uhkaavat mallin eheyttä ja mahdollisuutta tuottaa arkaluontoista, puolueellista tai sopimattomasti tuotettua sisältöä tekoälyn tuotoksiin.
  • Lopuksi, jopa käyttöönoton jälkeen organisaatioiden on pysyttävä valppaina harjoittamalla säännöllisiä ja tiukkoja red teaming -toimenpiteitä ja erikoistuneita tekoälytietoturvatarkastuksia, jotka kohdistuvat erityisesti lähteisiin, kuten puolueellisuuteen, kestävyyteen ja selkeyteen, jotta tekoälyjärjestelmissä olevia haavoittuvuuksia voidaan jatkuvasti havaita ja lieventää.

Vahvojen tekoälyjärjestelmien luomisen perustana terveydenhuollossa on erityisesti koko tekoälyn elinkaaren suojaaminen luomisesta käyttöönottoon ymmärtämällä selkeästi uudet uhat ja noudattamalla vakiintuneita turvallisuusperiaatteita.

Toimenpiteet toiminnan elinkaaren aikana

Alkuperäisen turvallisen suunnittelun ja käyttöönoton lisäksi vankka tekoälytietoturva edellyttää tarkkaa huomiota yksityiskohtiin ja aktiivista puolustusta koko tekoälyn elinkaaren ajan. Tämä edellyttää sisällön jatkuvaa seurantaa hyödyntämällä tekoälypohjaista valvontaa arkaluonteisten tai haitallisten tulosteiden välittömään havaitsemiseen samalla, kun noudatetaan tietojen julkaisukäytäntöjä ja käyttäjien oikeuksia. Mallin kehittämisen aikana ja tuotantoympäristössä organisaatioiden on samanaikaisesti aktiivisesti tarkistettava haittaohjelmia, haavoittuvuuksia ja hyökkäyksiä. Nämä kaikki täydentävät luonnollisesti perinteisiä kyberturvallisuustoimenpiteitä.

Käyttäjien luottamuksen edistämiseksi ja tekoälypäätöksenteon tulkittavuuden parantamiseksi on tärkeää käyttää huolellisesti Selitettävä AI (XAI) -työkaluja tekoälyn tuotosten ja ennusteiden taustalla olevien perusteiden ymmärtämiseksi.

Parempaa hallintaa ja tietoturvaa helpotetaan myös automatisoidun tiedonhaun ja älykkään tiedonluokittelun avulla, jossa käytetään dynaamisesti muuttuvia luokittimia. Nämä aloitteet tarjoavat kriittisen ja ajantasaisen kuvan jatkuvasti muuttuvasta dataympäristöstä. Nämä aloitteet johtuvat tarpeesta valvoa vahvoja tietoturvatoimenpiteitä, kuten hienojakoisia roolipohjaisia ​​käyttöoikeuksien hallintamenetelmiä (RBAC), kokonaisvaltaisia ​​salauskehyksiä tiedonsiirron ja säilytyksen aikana sekä tehokkaita tietojen peittämistekniikoita arkaluonteisten tietojen piilottamiseksi.

Kaikkien tekoälyjärjestelmien kanssa työskentelevien yrityskäyttäjien perusteellinen tietoturvakoulutus on myös olennaista, koska se luo kriittisen ihmisen palomuurin mahdollisten sosiaalisen manipuloinnin hyökkäysten ja muiden tekoälyyn liittyvien uhkien havaitsemiseksi ja neutraloimiseksi.

Agenttisen tekoälyn tulevaisuuden turvaaminen

Jatkuvan resilienssin perusta kehittyvien tekoälyuhkien edessä on ehdotettu moniulotteinen ja jatkuva menetelmä, jossa tekoälyjärjestelmiä valvotaan tarkasti, skannataan aktiivisesti, selitetään selkeästi, luokitellaan älykkäästi ja suojataan tiukasti. Tämä on luonnollisesti lisäksi laajalle levinneen ihmiskeskeisen turvallisuuskulttuurin luomista yhdessä kypsän perinteisen kyberturvallisuusvalvonnan kanssa. Kun autonomiset tekoälyagentit sisällytetään organisaatioprosesseihin, vankkojen turvallisuuskontrollien tarve kasvaa. Nykytodellisuus on, että tietomurtoja julkisissa pilvipalveluissa tapahtuu ja ne maksavat keskimäärin $ 5.17 euroa , korostaen selvästi organisaation talouteen ja maineeseen kohdistuvaa uhkaa.

Vallankumouksellisten innovaatioiden lisäksi tekoälyn tulevaisuus riippuu resilienssin kehittämisestä sulautetun turvallisuuden, avointen toimintakehysten ja tiukkojen hallintomenettelyjen pohjalta. Luottamuksen luominen tällaisiin älykkäisiin agentteihin ratkaisee lopulta, kuinka laajasti ja pysyvästi niitä omaksutaan, ja muokkaa tekoälyn transformatiivisen potentiaalin suuntaa.

Vipin Varma on vanhempi varatoimitusjohtaja ja kyberturvallisuuskäytännön johtaja CitiusTech.

Vipinillä on yli 35 vuoden kokemus kyberturvallisuudesta ja laajemmista ICT-alueista, ja hän tuo mukanaan syvällistä asiantuntemusta ja strategista johtajuutta edistääkseen turvallista ja joustavaa digitaalista transformaatiota koko terveydenhuollon ekosysteemissä.

Ennen CitiusTechiä Vipin johti Tata Consultancy Servicesin kyberturvallisuusliiketoimintaa globaaleille biotieteiden, terveydenhuollon, energian ja yleishyödyllisten alojen asiakkaille, ja hän työskenteli siellä yli 12 vuotta kyberturvallisuusstrategioiden muokkaamisen parissa säännellyillä toimialoilla. Ennen yritysmaailmaan siirtymistään hän palveli yli 23 vuotta Intian armeijassa, jossa hän toimi keskeisissä tehtävissä, kuten aktiivisten kapinallisvastaisten operaatioiden yksikön komentajana, YK:n rauhanturvaoperaation IT- ja viestintäjohtajana Sudanissa sekä monimutkaisten teknologiaohjelmien hallinnoijana.