Connect with us

Bias și echitate a sistemelor bazate pe IA în cadrul infracțiunilor financiare

Lideri de opinie

Bias și echitate a sistemelor bazate pe IA în cadrul infracțiunilor financiare

mm

Atunci când vine vorba de lupta împotriva infracțiunilor financiare, există provocări care depășesc sfera simplei opriri a fraudei sau a altor actori răi.

Unele dintre cele mai noi tehnologii avansate care sunt lansate adesea au propriile lor probleme specifice care trebuie luate în considerare în timpul etapelor de adoptare pentru a lupta cu succes împotriva fraudei fără repercusiuni regulatorii. În detectarea fraudei, echitatea modelului și bias-ul datelor pot apărea atunci când un sistem este mai greu ponderat sau lipsește reprezentarea anumitor grupuri sau categorii de date. În teorie, un model predictiv ar putea asocia în mod eronat numele de familie din alte culturi cu conturi frauduloase sau ar putea reduce în mod fals riscul în anumite segmente de populație pentru anumite tipuri de activități financiare.

Sistemele IA bazate pe părtinire pot reprezenta o amenințare gravă atunci când reputațiile pot fi afectate și apar atunci când datele disponibile nu sunt reprezentative pentru populație sau fenomenul de explorare. Aceste date nu includ variabile care să capteze în mod corespunzător fenomenul pe care dorim să îl prezicem. Sau, alternativ, datele ar putea include conținut produs de oameni, care poate conține părtinire împotriva grupurilor de oameni, moștenită prin experiențe culturale și personale, ceea ce duce la distorsionări atunci când se iau decizii. În timp ce la început datele pot părea obiective, ele sunt totuși colectate și analizate de oameni și, prin urmare, pot fi părtinitoare.

Deși nu există o soluție universală pentru a remedia pericolele discriminării și inechității în sistemele IA sau pentru a rezolva definitiv problema echității și a mitigării părtinirii în arhitectura modelului de învățare automată și utilizare, aceste probleme trebuie luate în considerare atât pentru motive sociale, cât și pentru motive de afaceri.

Făcând ceea ce este corect în IA

Abordarea părtinirii în sistemele bazate pe IA nu este doar corectă, ci și inteligentă pentru afaceri — și mizele pentru liderii de afaceri sunt ridicate. Sistemele IA părtinitoare pot conduce instituțiile financiare pe calea greșită prin alocarea de oportunități, resurse, informații sau calitatea serviciilor în mod inechitabil. Ele pot chiar încălca libertățile civile, pot pune în pericol siguranța indivizilor sau pot afecta starea de bine a unei persoane, dacă sunt percepute ca fiind depreciative sau ofensatoare.

Este important ca întreprinderile să înțeleagă puterea și riscurile părtinirii IA. Deși adesea necunoscute de instituție, un sistem IA părtinitor ar putea utiliza modele sau date dăunătoare care expun prejudecăți de rasă sau de gen într-o decizie de creditare. Informații precum numele și sexul ar putea fi proxy-uri pentru categorizarea și identificarea solicitanților în moduri ilegale. Chiar dacă părtinirea este neintenționată, ea totuși pune organizația în pericol prin neconformarea cu cerințele regulatorii și ar putea duce la faptul că anumite grupuri de oameni sunt refuzate în mod injust credite sau linii de credit.

În prezent, organizațiile nu au piesele necesare pentru a mitigă părtinirea în sistemele IA. Dar cu IA fiind din ce în ce mai mult utilizată în întreprinderi pentru a informa deciziile, este vital ca organizațiile să se străduie să reducă părtinirea, nu doar din motive morale, ci și pentru a se conforma cerințelor regulatorii și a construi venituri.

Cultură și implementare “conștientă de echitate”

Soluțiile care se concentrează pe proiectarea și implementarea conștientă de echitate vor avea cele mai benefice rezultate. Furnizorii ar trebui să aibă o cultură analitică care să ia în considerare achiziționarea, manipularea și gestionarea responsabilă a datelor ca componente necesare ale echității algoritmilor, deoarece dacă rezultatele unui proiect IA sunt generate de seturi de date părtinitoare, compromise sau distorsionate, părțile afectate nu vor fi protejate în mod corespunzător de prejudiciile discriminatorii.

Acestea sunt elementele echității datelor pe care echipele de știință a datelor trebuie să le țină minte:

  • Reprezentativitate: În funcție de context, fie subreprezentarea, fie suprareprezentarea grupurilor defavorizate sau a grupurilor protejate legal în eșantionul de date poate duce la dezavantajarea sistematică a părților vulnerabile în rezultatele modelului antrenat. Pentru a evita astfel de tipuri de bias de eșantionare, expertiza de domeniu va fi crucială pentru a evalua potrivirea dintre datele colectate sau achiziționate și populația subiacentă care urmează a fi modelată. Membrii echipei tehnice ar trebui să ofere mijloace de remediere pentru a corecta defectele de reprezentare în eșantion.
  • Potrivire și suficiență: Este important să se înțeleagă dacă datele colectate sunt suficiente pentru scopul propus al proiectului. Seturile de date insuficiente nu pot reflecta în mod echitabil calitățile care ar trebui să fie luate în considerare pentru a produce un rezultat justificat care să fie consecvent cu scopul dorit al sistemului IA. În consecință, membrii echipei de proiect cu competențe tehnice și politice ar trebui să colaboreze pentru a determina dacă cantitatea de date este suficientă și potrivită pentru scop.
  • Integritatea sursei și acuratețea măsurării: Mitigarea eficientă a părtinirii începe de la începutul proceselor de extragere și colectare a datelor. Atât sursele, cât și instrumentele de măsurare pot introduce factori discriminatorii într-un set de date. Pentru a asigura lipsa de prejudicii discriminatorii, eșantionul de date trebuie să aibă o integritate a sursei optimă. Acest lucru implică securizarea sau confirmarea faptului că procesele de colectare a datelor implică surse și instrumente de măsurare adecvate, fiabile și imparțiale.
  • Actualitate și recentă: Dacă seturile de date includ date învechite, atunci schimbările în distribuția subiacentă a datelor pot afecta negativ generalizabilitatea modelului antrenat. În cazul în care aceste schimbări reflectă modificări ale relațiilor sociale sau dinamicii grupurilor, pierderea acurateței cu privire la caracteristicile reale ale populației subiacente poate introduce părtinire în sistemul IA. Pentru a preveni rezultate discriminatorii, actualitatea și recentă a tuturor elementelor setului de date trebuie examinate.
  • Relevanță, adecvare și cunoașterea domeniului: Înțelegerea și utilizarea surselor și tipurilor de date cele mai potrivite sunt cruciale pentru construirea unui sistem IA robust și lipsit de părtinire. Cunoașterea solidă a distribuției populației subiacente și a scopului predictiv al proiectului este instrumentală pentru selectarea intrărilor de măsurare optim relevante care contribuie la rezolvarea rezonabilă a soluției definite. Experții din domeniu ar trebui să colaboreze îndeaproape cu echipele de știință a datelor pentru a ajuta la determinarea categoriilor și surselor de măsurare optim adecvate.

În timp ce sistemele bazate pe IA ajută la procesele de automatisare a deciziilor și oferă economii de costuri, instituțiile financiare care iau în considerare IA ca soluție trebuie să fie vigilente pentru a se asigura că nu au loc decizii părtinitoare. Liderii de conformitate ar trebui să fie în pas cu echipa lor de știință a datelor pentru a confirma faptul că capacitățile IA sunt responsabile, eficiente și lipsite de părtinire. Având o strategie care promovează IA responsabilă este ceea ce trebuie făcut, și poate oferi, de asemenea, o cale către conformitatea cu viitoarele reglementări IA.

Danny Butvinik este Șeful Științific al Datelor la NICE Actimize, oferind conducere tehnică și profesională. Danny este expert în inteligență artificială și știința datelor, având autorat multiple articole și lucrări științifice. În funcția sa actuală, el conduce un grup mare de oameni de știință a datelor și contribuie la creșterea inovației și la proprietatea intelectuală a companiei, cu peste 15 ani de experiență în cercetare, dezvoltare și management în știința datelor și dezvoltarea de software.