škrbina 5 temeljnih stupova za osiguranje odgovorne umjetne inteligencije - Unite.AI
Povežite se s nama

Vođe misli

5 temeljnih stupova za osiguranje odgovorne umjetne inteligencije

mm

Objavljeno

 on

Svjedoci smo ogromnog rasta AI/ML sustava za obradu oceana podataka koji se generiraju u novoj digitalnoj ekonomiji. Međutim, s ovim rastom, postoji potreba da se ozbiljno razmotre etičke i pravne implikacije umjetne inteligencije.

Budući da sustavima umjetne inteligencije povjeravamo sve sofisticiranije i važnije zadatke, poput automatskog odobravanja kredita, na primjer, moramo biti apsolutno sigurni da su ti sustavi odgovorni i pouzdani. Smanjenje pristranosti u umjetnoj inteligenciji postalo je golemo područje fokusa mnogih istraživača i ima ogromne etičke implikacije, kao i količina autonomije koju dajemo tim sustavima.

Koncept odgovorne umjetne inteligencije važan je okvir koji može pomoći u izgradnji povjerenja u vaše implementacije umjetne inteligencije. Postoji pet temeljnih stupova za odgovornu umjetnu inteligenciju. Ovaj članak će ih istražiti kako bi vam pomogao izgraditi bolje sustave.

1. Reproducibilnost

Postoji stara izreka u svijetu razvoja softvera koja glasi: "hej, radi na mom stroju" U ML-u i umjetnoj inteligenciji, izraz bi se mogao prilagoditi tako da bude: "hej, radi na mom skupu podataka." To znači da modeli strojnog učenja često mogu biti crna kutija. Mnogi skupovi podataka za obuku mogu imati inherentne pristranosti kao što su pristranosti uzorkovanja ili pristranosti potvrde koje smanjuju točnost konačnog proizvoda.

Kako bi AI/ML sustavi bili ponovljiviji, a time i točniji i pouzdaniji, prvi korak je standardizacija MLOps cjevovoda. Čak i najpametniji znanstvenici za podatke imaju svoje omiljene tehnologije i biblioteke, što znači da inženjering značajki i rezultirajući modeli nisu jednaki od osobe do osobe. Korištenjem alata kao što je MLflow, možete standardizirati MLOps cjevovod i smanjiti te razlike.

Drugi način da se AI/ML sustavi učine reproducibilnijima je korištenje onoga što se naziva "zlatnim skupovima podataka". To su reprezentativni skupovi podataka koji u biti služe kao testovi i validacija novih modela prije nego što se puste u proizvodnju.

2. prozirnost

Kao što je ranije rečeno, mnogi ML modeli, posebice neuronske mreže, crne su kutije. Da bismo ih učinili odgovornijima, moramo ih učiniti razumljivijima. Za jednostavne sustave kao što su stabla odlučivanja, prilično je lako razumjeti kako i zašto je sustav donio određenu odluku, ali, kako točnost i složenost sustava AI raste, njegova interpretabilnost često opada.

Postoji novo područje istraživanja koje se zove "objašnjivost" koje pokušava donijeti transparentnost čak i složenim AI sustavima kao što su neuronske mreže i duboko učenje. Oni koriste proxy modele za kopiranje performansi neuronske mreže, ali također pokušavaju dati valjana objašnjenja o tome koje su značajke važne.

Sve to vodi pravednosti; želite znati zašto je donesena određena odluka i uvjeriti se da je ta odluka pravedna. Također želite osigurati da se neprikladne značajke ne uzimaju u obzir kako se pristranost ne bi uvukla u vaš model.

3. Odgovornost

Možda je najvažniji aspekt odgovorne umjetne inteligencije odgovornost. Puno se razgovara o ovoj temi, čak iu državnom sektoru, budući da se bavi time koje će politike utjecati na rezultate umjetne inteligencije. Ovaj pristup vođen politikama određuje u kojoj bi fazi ljudi trebali biti u tijeku.

Odgovornost zahtijeva robusne monitore i metrike koji će pomoći kreatorima politika i kontrolirati AI/ML sustave. Odgovornost doista povezuje ponovljivost i transparentnost, ali treba učinkovit nadzor u obliku etičkih odbora za umjetnu inteligenciju. Ovi odbori mogu donositi političke odluke, odlučivati ​​što je važno mjeriti i provoditi preglede pravednosti.

4. Sigurnost

Sigurnost umjetne inteligencije usmjerena je na povjerljivost i integritet podataka. Kada sustavi obrađuju podatke, želite da budu u sigurnom okruženju. Želite da podaci budu šifrirani dok miruju u vašoj bazi podataka i dok se pozivaju putem cjevovoda, ali ranjivosti i dalje postoje dok se unose u model strojnog učenja kao običan tekst. Tehnologije kao što je homomorfna enkripcija rješavaju ovaj problem dopuštajući da se obuka strojnog učenja odvija u šifriranom okruženju.

Drugi aspekt je sigurnost samog modela. Na primjer, napadi inverzijom modela omogućuju hakerima da nauče podatke o obuci koji su korišteni za izradu modela. Postoje i napadi trovanjem modela, koji ubacuju loše podatke u model dok se obučava i potpuno oštećuju njegovu izvedbu. Testiranjem vašeg modela na suparničke napade kao što su ovi možete ga održati sigurnim i zaštićenim.

5. Privatnost

Google i OpenMined dvije su organizacije koje su odnedavno dale prioritet AI privatnosti, a OpenMined je bio domaćin nedavne konferencije upravo na ovu temu. Uz nove propise kao što su GDPR i CCPA, i potencijalno još njih koji dolaze, privatnost će igrati središnju ulogu u tome kako obučavamo modele strojnog učenja.

Jedan od načina da osigurate da postupate s podacima svojih kupaca na način koji vodi računa o privatnosti jest korištenje federalnog učenja. Ova decentralizirana metoda strojnog učenja trenira različite modele na lokalnoj razini, a zatim agregira svaki model u središnjem središtu dok čuva podatke sigurnima i privatnima. Druga metoda je uvođenje statističkog šuma tako da pojedinačne vrijednosti kupaca ne procure. To vam omogućava da radite s agregatom tako da su podaci pojedinca netaknuti i nisu dostupni algoritmu.

Održavanje AI odgovornim

 U konačnici, držanje AI odgovornim ovisi o svakoj organizaciji koja dizajnira AI/ML sustave. Namjernim traženjem tehnologija unutar svakog od ovih pet aspekata odgovorne umjetne inteligencije, ne samo da možete imati koristi od moći umjetne inteligencije, to možete učiniti na pouzdan i jednostavan način koji će umiriti vašu organizaciju, klijente i regulatore.

Dattaraj Rao, glavni znanstvenik za podatke u Trajni sustavi, autor je knjige “Keras to Kubernetes: The Journey of a Machine Learning Model to Production.” U Persistent Systems, Dattaraj vodi AI Research Lab koji istražuje najsuvremenije algoritme u računalnom vidu, razumijevanju prirodnog jezika, probabilističkom programiranju, učenju s potkrepljenjem, objašnjivoj AI itd. i demonstrira primjenjivost u zdravstvu, bankarstvu i industriji. Dattaraj ima 11 patenata u strojnom učenju i računalnom vidu.