Connect with us

Etiikka

5 Perustavanlaista Pilaria Vastuullisen Tekoälyn Turvaamiseksi

mm

Näemme valtavan kasvun tekoäly/ML-järjestelmissä, jotka prosessoi valtameren verran dataa, jota tuotetaan uudessa digitaalisessa taloudessa. Kuitenkin tämän kasvun myötä on tarpeen ottaa vakavasti tekoälyn eettiset ja oikeudelliset vaikutukset.

Kun luotamme yhä monimutkaisempiin ja tärkeämpiin tehtäviin tekoälyjärjestelmiin, kuten esimerkiksi automaattiseen lainahyväksyntään, meidän on oltava täysin varmoja, että nämä järjestelmät ovat vastuullisia ja luotettavia. Tekoälyssä olevan vinouman vähentäminen on muodostunut valtavaksi tutkimusalueeksi monille tutkijoille ja sillä on valtavat eettiset vaikutukset, kuten myös se, kuinka paljon autonomiaa annamme näille järjestelmille.

Vastuullisen tekoälyn käsite on tärkeä viitekehys, joka voi auttaa luomaan luottamusta tekoälyisiin käyttöönottoihin. On olemassa viisi perustavanlaista pilaria Vastuulliselle tekoälylle. Tämä artikkeli tarkastelee näitä, jotta voit rakentaa parempia järjestelmiä.

1. Toistettavuus

On vanha sanonta ohjelmistokehityksen maailmassa, joka kuuluu: “hei, se toimii minun koneellani” Tekoälyssä ja ML:ssä lause voisi olla: “hei, se toimii minun datasetillani.” Tämä tarkoittaa, että koneoppimismallit voivat usein olla musta laatikko. Monet koulutusdatat voivat sisältää sisäänrakennettuja vinoumia, kuten otantavinoumaa tai vahvistusvinoumaa, jotka vähentävät lopputuotteen tarkkuutta.

Toistettavuuden parantamiseksi ja siten tekoäly/ML-järjestelmien tekemiseksi tarkemmaksi ja luotettavammaksi, ensimmäinen askel on MLOps-pipeline-standardisointi. Jopa älykkäimmillä data-tieteilijöillä on omia suosikkiteknologioitaan ja kirjastojaan, mikä tarkoittaa, että piirteiden insinööritöitä ja tuloksellisia malleja ei ole yhdenmukaisia henkilöltä toiselle. Käyttämällä työkaluja, kuten MLflow, voit standardisoida MLOps-pipeline ja vähentää näitä eroja.

Toinen tapa parantaa tekoäly/ML-järjestelmien toistettavuutta on “kultadatasetien” käyttäminen. Nämä ovat edustavia datatietoja, jotka toimivat periaatteessa uusien mallien testaamisena ja validointina ennen niiden julkaisemista tuotantoon.

2. Avoinheitto

Kuten aiemmin mainittiin, monet ML-mallit, erityisesti neuroverkkomallit, ovat mustia laatikoita. Niiden tekemiseksi vastuullisemmiksi meidän on tehtävä niistä tulkittavampia. Yksinkertaisille järjestelmille, kuten päätöspuille, on helppo ymmärtää, miten ja miksi järjestelmä teki tietyn päätöksen, mutta kun tekoälyjärjestelmän tarkkuus ja monimutkaisuus kasvaa, sen tulkittavuus usein laskee.

On uusi tutkimusalue, jota kutsutaan “selityksi”, joka yrittää tuoda avoimuutta jopa monimutkaisiin tekoälyjärjestelmiin, kuten neuroverkkoihin ja syväoppimiseen. Nämä käyttävät välillisiä malleja kopioimaan neuroverkon suorituskykyä, mutta ne myös yrittävät antaa päteviä selityksiä siitä, mitkä piirteet ovat tärkeitä.

Tämä johtaa reiluuteen; haluat tietää, miksi tietty päätös tehtiin ja varmistaa, että tämä päätös on reilu. Haluat myös varmistaa, että sopimattomia piirteitä ei oteta huomioon, jotta vinouma ei pääse malliisi.

3. Vastuullisuus

Vastuullisen tekoälyn ehkä tärkein osa-alue on vastuullisuus. On paljon keskustelua tästä aiheesta, jopa hallituksen sektorilla, koska se liittyy siihen, mitkä politiikat ohjaavat tekoälytuloksia. Tämä politiikkalähestymistapa määrittää, mihin vaiheeseen ihmiset ovat kytkettynä.

Vastuullisuus edellyttää robusteja valvontaa ja mittareita, jotka ohjaavat päättäjiä ja tekoäly/ML-järjestelmiä. Vastuullisuus sitoo tosiasiassa yhteen toistettavuuden ja avoimuuden, mutta se tarvitsee tehokasta valvontaa tekoälyeettisten komiteoiden muodossa. Nämä komiteat voivat käsitellä päätöksentekoprosesseja, päättää, mitä on tärkeää mitata, ja suorittaa reiluustarkastuksia.

4. Turvallisuus

Tekoälyturvallisuus keskittyy datan luottamuksellisuuteen ja eheys. Kun järjestelmät prosessoi dataa, haluat, että ne ovat turvallisessa ympäristössä. Haluat, että data on sekä salattu, kun se on levossa tietokannassasi, että myös, kun se haetaan putkistosta, mutta haavoittuvuuksia on edelleen, kun se syötetään koneoppimismalliin selkeänä tekstinä. Teknologiat, kuten homomorfisen salauksen, ratkaisevat tämän ongelman sallimalla koneoppimisen koulutuksen tapahtua salatussa ympäristössä.

Toinen näkökulma on itse mallin turvallisuus. Esimerkiksi mallin käänteiset hyökkäykset sallivat hakkereiden oppia koulutusdataa, jota käytettiin mallin rakentamiseen. On myös mallin myrkyttämishyökkäykset, jotka lisäävät pahaa dataa malliin, kun se on koulutuksessa, ja vahingoittavat täysin sen suorituskykyä. Mallin testaaminen hyökkäyksille, kuten näille, voi pitää sen turvallisena ja turvattuna.

5. Yksityisyys

Google ja OpenMined ovat kaksi organisaatiota, jotka ovat viime aikoina priorisoineet tekoälyyksityisyyttä, ja OpenMined isännöi äskettäin konferenssin juuri tästä aiheesta. Uusien sääntöjen, kuten GDPR:n ja CCPA:n, ja mahdollisesti tulevien sääntöjen myötä yksityisyys tulee olemaan keskeisessä asemassa siinä, miten koulutamme koneoppimismalleja.

Yksi tapa varmistaa, että käsittelet asiakkaiden dataa yksityisyyden kannalta, on käyttää hajautettua koneoppimista. Tämä keskitetty tapa koneoppimiseen kouluttaa eri malleja paikallisesti ja sitten aggregoi kunkin mallin keskuspaikassa, pitäen datan turvallisena, turvattuna ja yksityisenä. Toinen tapa on esittää tilastollinen kohina, jotta yksittäisten asiakkaiden arvoja ei vuodeta. Tämä pitää sinut työskentelemässä aggregaatissa, jotta yksittäisen henkilön data on koskematon ja ei ole käytettävissä algoritmille.

Pidä Tekoäly Vastuullisena

 Lopulta, tekoälyn pitäminen vastuullisena on jokaisen organisaation vastuulla, joka suunnittelee tekoäly/ML-järjestelmiä. Tietoisesti pyrkimällä teknologioihin kunkin näiden viiden Vastuullisen tekoälyn ulottuvuuden sisällä, voit hyötyä tekoälyn voimasta, voit tehdä niin luotettavalla ja suoralla tavalla, joka takaa organisaatiosi, asiakkaiden ja sääntelijöiden luottamuksen.

Dattaraj Rao, Chief Data Scientist at Persistent Systems, on kirjan “Keras to Kubernetes: The Journey of a Machine Learning Model to Production” kirjoittaja. Persistent Systemsissä Dattaraj johtaa AI-tutkimuslaboratoriota, joka tutkii tietokoneen näön, luonnollisen kielen ymmärtämisen, todennäköisyysohjelmoinnin, vahvistusoppimisen, selitettävän AI:n jne. alan huipputason algoritmeja ja osoittaa niiden soveltamiskelpoisuuden terveydenhuollossa, pankkitoiminnassa ja teollisuusaloilla. Dattarajilla on 11 patenttia koneoppimisessa ja tietokoneen näössä.