Connect with us

Etică

5 Stâlpi Fundamentali pentru Asigurarea Inteligenței Artificiale Responsabile

mm

Suntem martori la o creștere copleșitoare a sistemelor AI/ML pentru a procesa oceane de date generate în noua economie digitală. Cu toate acestea, odată cu această creștere, există nevoia de a lua în considerare serios implicațiile etice și juridice ale inteligenței artificiale.

Pe măsură ce încredințăm sarcini din ce în ce mai sofisticate și importante sistemelor de inteligență artificială, cum ar fi aprobarea automată a creditelor, de exemplu, trebuie să fim absolut siguri că aceste sisteme sunt responsabile și de încredere. Reducerea prejudecăților în inteligența artificială a devenit o zonă masivă de focalizare pentru mulți cercetători și are implicații etice uriașe, la fel ca și cantitatea de autonomie pe care le-o acordăm acestor sisteme.

Conceptul de Inteligență Artificială Responsabilă este un cadru important care poate ajuta la construirea încrederii în implementările dvs. de inteligență artificială. Există cinci stâlpi fundamentali pentru Inteligența Artificială Responsabilă. Acest articol va explora acestea pentru a vă ajuta să construiți sisteme mai bune.

1. Reproducibilitate

Există o veche zică în lumea dezvoltării de software care spune: “hey, funcționează pe mașina mea” În ML și AI, fraza ar putea fi modificată pentru a fi: “hey, funcționează pe setul meu de date.” Acest lucru înseamnă că modelele de învățare automată pot adesea tinde să fie o cutie neagră. Multe seturi de date de antrenare pot avea prejudecăți inerente, cum ar fi prejudecata de eșantionare sau prejudecata de confirmare, care reduc acuratețea produsului final.

Pentru a face sistemele AI/ML mai reproduse și, prin urmare, mai precise și de încredere, primul pas este de a standardiza pipeline-ul MLOps. Chiar și cei mai dești cercetători au tehnologiile și bibliotecile lor preferate, ceea ce înseamnă că ingineria caracteristicilor și modelele rezultate nu sunt uniforme de la o persoană la alta. Prin utilizarea unor instrumente precum MLflow, puteți standardiza pipeline-ul MLOps și reduce aceste diferențe.

O altă modalitate de a face sistemele AI/ML mai reproduse este prin utilizarea a ceea ce se numesc “seturi de date aur”. Acestea sunt seturi de date reprezentative care acționează în esență ca teste și validări ale noilor modele înainte de a fi lansate pentru producție.

2. Transparență

Așa cum s-a menționat anterior, multe modele ML, în special rețelele neuronale, sunt cutii negre. Pentru a le face mai responsabile, trebuie să le facem mai interpretabile. Pentru sisteme simple, cum ar fi arborii de decizie, este foarte ușor de înțeles cum și de ce sistemul a luat o anumită decizie, dar, pe măsură ce acuratețea și complexitatea unui sistem de inteligență artificială cresc, interpretarea lui adesea scade.

Există o nouă zonă de cercetare numită “explicabilitate” care încearcă să aducă transparență chiar și în sistemele complexe de inteligență artificială, cum ar fi rețelele neuronale și învățarea profundă. Acestea folosesc modele proxy pentru a copia performanța unei rețele neuronale, dar încearcă și să ofere explicații valabile ale caracteristicilor importante.

Acest lucru conduce la echitate; doriți să știți de ce a fost luată o anumită decizie și să vă asigurați că această decizie este corectă. De asemenea, doriți să vă asigurați că caracteristicile inadecvate nu sunt luate în considerare, astfel încât prejudecățile să nu pătrundă în modelul dvs.

3. Răspundere

Poate cel mai important aspect al Inteligenței Artificiale Responsabile este răspunderea. Există multă discuție despre acest subiect, chiar și în sectorul guvernamental, deoarece se ocupă de politici care vor conduce rezultatele inteligenței artificiale. Acest abordare bazat pe politici determină la ce stadiu ar trebui să fie oamenii în buclă.

Răspunderea necesită monitoare robuste și metrici pentru a ajuta factorii de decizie și a controla sistemele AI/ML. Răspunderea leagă realmente reproducibilitatea și transparența, dar are nevoie de supraveghere eficientă sub forma comitetelor de etică a inteligenței artificiale. Aceste comitete pot gestiona deciziile politice, pot decide ce este important de măsurat și pot efectua revizuiri de echitate.

4. Securitate

Securitatea inteligenței artificiale se concentrează pe confidențialitatea și integritatea datelor. Când sistemele procesează date, doriți ca acestea să fie într-un mediu securizat. Doriți ca datele să fie atât criptate în timp ce se află în repaus în baza dvs. de date, cât și atunci când sunt transmise prin pipeline, dar vulnerabilitățile există încă atunci când sunt introduse într-un model de învățare automată sub formă de text simplu. Tehnologii precum criptarea omomorfică rezolvă această problemă, permițând antrenarea învățării automate într-un mediu criptat.

O altă aspect este securitatea modelului în sine. De exemplu, atacurile de inversare a modelului permit hackerilor să învețe datele de antrenare utilizate pentru a construi modelul. De asemenea, există atacuri de otrăvire a modelului, care introduc date rele în model în timp ce se antrenează și distrug complet performanța sa. Testarea modelului dvs. pentru atacuri adversative, cum ar fi acestea, poate menține securitatea și siguranța sa.

5. Intimitate

Google și OpenMined sunt două organizații care au prioritizat recent intimitatea inteligenței artificiale, iar OpenMined a găzduit o conferință recentă pe acest subiect. Cu noi reglementări, cum ar fi GDPR și CCPA, și potențial mai multe pe linia de așteptare, intimitatea va juca un rol central în modul în care antrenăm modelele de învățare automată.

O modalitate de a vă asigura că gestionați datele clienților dvs. într-un mod conștient al intimității este de a utiliza învățarea federată. Această metodă descentralizată de învățare automată antrenează modele diferite local, apoi agregă fiecare model într-un hub central, menținând datele în siguranță, securizate și private. O altă metodă este de a introduce zgomot statistic, astfel încât valorile individuale ale clienților să nu fie divulgate. Acest lucru vă permite să lucrați cu agregatul, astfel încât datele individuale să rămână intacte și să nu fie disponibile algoritmului.

Menținerea Inteligenței Artificiale Responsabile

 În cele din urmă, menținerea inteligenței artificiale responsabile este în sarcina fiecărei organizații care proiectează sisteme AI/ML. Prin urmărirea intenționată a tehnologiilor din fiecare dintre aceste cinci aspecte ale Inteligenței Artificiale Responsabile, puteți nu numai să beneficiați de puterea inteligenței artificiale, dar să o faceți și într-un mod de încredere și direct, care va liniști organizația dvs., clienții și reglementatorii.

Dattaraj Rao, Șeful științific al datelor la Persistent Systems, este autorul cărții “Keras to Kubernetes: Călătoria unui model de învățare automată către producție.” La Persistent Systems, Dattaraj conduce Laboratorul de cercetare AI care explorează algoritmi de ultimă generație în Viziunea calculatorului, Înțelegerea limbajului natural, programarea probabilistică, Învățarea prin întărire, Inteligența explicabilă, etc. și demonstrează aplicabilitatea în domeniile sănătății, bancare și industriale. Dattaraj deține 11 brevete în învățarea automată și viziunea calculatorului.