ciot Prejudecățile și corectitudinea sistemelor bazate pe inteligența artificială în cadrul criminalității financiare - Unite.AI
Conectează-te cu noi

Liderii gândirii

Prejudecățile și corectitudinea sistemelor bazate pe inteligența artificială în cadrul criminalității financiare

mm

Publicat

 on

Când vine vorba de combaterea criminalității financiare, există provocări care depășesc scopul pur și simplu de a opri fraudatorii sau alți actori răi.

Unele dintre cele mai noi tehnologii avansate care sunt lansate au adesea propriile lor probleme specifice care trebuie luate în considerare în etapele de adoptare pentru a lupta cu succes împotriva fraudătorilor fără repercusiuni de reglementare. În detectarea fraudei, corectitudinea modelului și părtinirea datelor pot apărea atunci când un sistem este mai ponderat sau lipsește reprezentarea anumitor grupuri sau categorii de date. În teorie, un model predictiv ar putea asocia în mod eronat nume de familie din alte culturi cu conturi frauduloase sau ar putea reduce în mod fals riscul în cadrul segmentelor de populație pentru anumite tipuri de activități financiare.

Sistemele AI părtinitoare pot reprezenta o amenințare serioasă atunci când reputația poate fi afectată și apare atunci când datele disponibile nu sunt reprezentative pentru populație sau pentru fenomenul de explorare. Aceste date nu includ variabile care surprind în mod corespunzător fenomenul pe care dorim să-l prezicem. Sau, alternativ, datele ar putea include conținut produs de oameni care poate conține părtiniri împotriva unor grupuri de oameni, moștenite de experiențele culturale și personale, ceea ce duce la distorsiuni în luarea deciziilor. Deși la început datele ar putea părea obiective, acestea sunt încă colectate și analizate de oameni și, prin urmare, pot fi părtinitoare.

Deși nu există o soluție de argint atunci când vine vorba de remedierea pericolelor discriminării și inechității în sistemele de inteligență artificială sau de soluții permanente la problema echității și atenuării prejudecăților în arhitectura modelului și utilizării învățării automate, aceste probleme trebuie luate în considerare atât pentru societate, cât și pentru motive de afaceri.

A face ceea ce trebuie în AI

Abordarea părtinirii în sistemele bazate pe inteligență artificială nu este doar lucrul potrivit, ci și lucrul inteligent pentru afaceri – iar mizele pentru liderii de afaceri sunt mari. Sistemele AI părtinitoare pot conduce instituțiile financiare pe calea greșită, alocand oportunități, resurse, informații sau calitatea serviciilor în mod nedrept. Ele chiar au potențialul de a încălca libertățile civile, de a aduce un detriment pentru siguranța persoanelor sau de a afecta bunăstarea unei persoane dacă sunt percepute ca denigratoare sau ofensatoare.

Este important ca întreprinderile să înțeleagă puterea și riscurile părtinirii AI. Deși adesea necunoscut de către instituție, un sistem părtinitor bazat pe inteligență artificială ar putea folosi modele sau date dăunătoare care expun părtinirea rasială sau de gen într-o decizie de împrumut. Informații precum numele și sexul ar putea fi proxy pentru clasificarea și identificarea solicitanților în moduri ilegale. Chiar dacă părtinirea este neintenționată, ea pune în continuare organizația în pericol prin nerespectarea cerințelor de reglementare și ar putea duce la refuzul injust de împrumuturi sau linii de credit anumitor grupuri de oameni.

În prezent, organizațiile nu au elementele necesare pentru a atenua cu succes părtinirea sistemelor AI. Dar, având în vedere că IA este din ce în ce mai des implementată în afaceri pentru a informa deciziile, este vital ca organizațiile să se străduiască să reducă părtinirea, nu doar din motive morale, ci și pentru a respecta cerințele de reglementare și pentru a genera venituri.

Cultură și implementare „Conștientă de corectitudine”.

Soluțiile care se concentrează pe proiectarea și implementarea conștientă de corectitudine vor avea cele mai benefice rezultate. Furnizorii ar trebui să aibă o cultură analitică care să considere achiziția, manipularea și gestionarea responsabilă a datelor ca fiind componente necesare ale corectitudinii algoritmice, deoarece dacă rezultatele unui proiect AI sunt generate de seturi de date părtinitoare, compromise sau denaturate, părțile afectate nu vor fi protejate în mod adecvat de vătămare discriminatorie.

Acestea sunt elementele corectitudinii datelor pe care echipele de știință a datelor trebuie să le aibă în vedere:

  • Reprezentativitate:În funcție de context, fie subreprezentarea, fie suprareprezentarea grupurilor dezavantajate sau protejate din punct de vedere legal în eșantionul de date poate duce la dezavantajarea sistematică a părților vulnerabile în rezultatele modelului instruit. Pentru a evita astfel de prejudecăți de eșantionare, expertiza în domeniu va fi crucială pentru a evalua potrivirea dintre datele colectate sau dobândite și populația de bază care trebuie modelată. Membrii echipei tehnice ar trebui să ofere mijloace de remediere pentru a corecta defectele de reprezentare în eșantionare.
  • Potrivit pentru scop și suficiență: Este important pentru a înțelege dacă datele colectate sunt suficiente pentru scopul propus al proiectului. Seturile de date insuficiente pot să nu reflecte în mod echitabil calitățile care ar trebui cântărite pentru a produce un rezultat justificat care să fie în concordanță cu scopul dorit al sistemului AI. În consecință, membrii echipei de proiect cu competențe tehnice și de politică ar trebui să colaboreze pentru a determina dacă cantitatea de date este suficientă și adecvată scopului.
  • Integritatea sursei și acuratețea măsurării:Atenuarea efectivă a părtinirii începe chiar de la începutul proceselor de extragere și colectare a datelor. Atât sursele, cât și instrumentele de măsurare pot introduce factori discriminatori într-un set de date. Pentru a asigura non-vătămarea discriminatorie, eșantionul de date trebuie să aibă o integritate optimă a sursei. Aceasta implică asigurarea sau confirmarea faptului că procesele de colectare a datelor au implicat surse adecvate, fiabile și imparțiale de măsurare și metode robuste de colectare.
  • Actualitate și recentitate: Dacă seturile de date includ date învechite, atunci modificările în distribuția datelor subiacente pot afecta negativ generalizarea modelului antrenat. Cu condiția ca aceste devieri de distribuție să reflecte schimbarea relațiilor sociale sau a dinamicii grupului, această pierdere a preciziei cu privire la caracteristicile reale ale populației de bază poate introduce părtinire în sistemul AI. În prevenirea rezultatelor discriminatorii, actualitatea și caracterul recent al tuturor elementelor setului de date ar trebui analizate cu atenție.
  • Relevanța, adecvarea și cunoașterea domeniului: Înțelegerea și utilizarea celor mai adecvate surse și tipuri de date sunt cruciale pentru construirea unui sistem AI robust și imparțial. Cunoașterea solidă a distribuției populației de bază și a obiectivului predictiv al proiectului este esențială pentru selectarea intrărilor de măsurare optim relevante care contribuie la rezoluția rezonabilă a soluției definite. Experții în domeniu ar trebui să colaboreze îndeaproape cu echipele de știință a datelor pentru a ajuta la determinarea categoriilor și surselor de măsurare optim adecvate.

În timp ce sistemele bazate pe inteligență artificială ajută la procesele de automatizare de luare a deciziilor și oferă economii de costuri, instituțiile financiare care consideră AI ca o soluție trebuie să fie vigilente pentru a se asigura că nu au loc decizii părtinitoare. Liderii de conformitate ar trebui să fie în pas cu echipa lor de știință a datelor pentru a confirma că capacitățile AI sunt responsabile, eficiente și lipsite de părtiniri. A avea o strategie care să promoveze IA responsabilă este lucrul corect de făcut și poate oferi, de asemenea, o cale către conformitatea cu viitoarele reglementări AI.

Danny Butvinik este cercetătorul șef de date la NICE Actimize, oferind conducere tehnică și profesională. Danny este un expert în inteligența artificială și știința datelor, având autorul mai multor articole și lucrări științifice. În rolul său actual, el conduce un grup mare de oameni de știință ai datelor și contribuie la creșterea inovației și la proprietatea intelectuală a companiei, cu peste 15 ani de experiență în cercetare, dezvoltare și management în știința datelor și dezvoltarea de software.