Connect with us

Bias e equità dei sistemi basati sull’intelligenza artificiale all’interno della criminalità finanziaria

Leader di pensiero

Bias e equità dei sistemi basati sull’intelligenza artificiale all’interno della criminalità finanziaria

mm

Quando si tratta di combattere la criminalità finanziaria, esistono sfide che vanno oltre l’ambito di semplicemente fermare i truffatori o altri attori malintenzionati.

Alcune delle tecnologie più nuove e avanzate che vengono lanciate spesso hanno problemi specifici che devono essere considerati durante le fasi di adozione per combattere con successo i truffatori senza ripercussioni normative. Nella rilevazione delle frodi, la correttezza del modello e il pregiudizio dei dati possono verificarsi quando un sistema è più pesantemente ponderato o manca di rappresentanza di determinati gruppi o categorie di dati. In teoria, un modello predittivo potrebbe erroneamente associare cognomi di altre culture con account fraudolenti o falsamente diminuire il rischio all’interno di segmenti di popolazione per determinati tipi di attività finanziarie.

I sistemi di intelligenza artificiale pregiudiziali possono rappresentare una minaccia seria quando le reputazioni possono essere influenzate e si verificano quando i dati disponibili non sono rappresentativi della popolazione o del fenomeno di esplorazione. Questi dati non includono variabili che catturano adeguatamente il fenomeno che vogliamo prevedere. In alternativa, i dati potrebbero includere contenuti prodotti da esseri umani che possono contenere pregiudizi contro gruppi di persone, ereditati da esperienze culturali e personali, portando a distorsioni quando si prendono decisioni. Mentre all’inizio i dati potrebbero sembrare oggettivi, sono comunque raccolti e analizzati da esseri umani e possono quindi essere pregiudiziali.

Mentre non esiste una soluzione definitiva quando si tratta di rimediare ai pericoli della discriminazione e dell’ingiustizia nei sistemi di intelligenza artificiale o di risolvere permanentemente il problema dell’equità e della mitigazione del pregiudizio nell’architettura del modello di apprendimento automatico e nell’uso, queste questioni devono essere considerate per motivi sia sociali che aziendali.

Fare la cosa giusta nell’intelligenza artificiale

Affrontare il pregiudizio nei sistemi basati sull’intelligenza artificiale non è solo la cosa giusta, ma anche la cosa intelligente per le aziende — e le poste in gioco per i leader aziendali sono alte. I sistemi di intelligenza artificiale pregiudiziali possono portare le istituzioni finanziarie sulla strada sbagliata assegnando opportunità, risorse, informazioni o qualità del servizio in modo ingiusto. Hanno anche il potenziale di violare le libertà civili, rappresentare un pericolo per la sicurezza degli individui o influenzare il benessere di una persona se percepiti come dispregiativi o offensivi.

È importante che le imprese comprendano il potere e i rischi del pregiudizio dell’intelligenza artificiale. Sebbene spesso sconosciuto all’istituzione, un sistema basato sull’intelligenza artificiale pregiudiziale potrebbe utilizzare modelli o dati dannosi che espongono pregiudizi razziali o di genere in una decisione di prestito. Informazioni come nomi e genere potrebbero essere proxy per categorizzare e identificare i richiedenti in modi illegali. Anche se il pregiudizio è involontario, mette comunque l’organizzazione a rischio non rispettando i requisiti normativi e potrebbe portare a gruppi di persone che vengono ingiustamente negati prestiti o linee di credito.

Attualmente, le organizzazioni non hanno gli elementi necessari per mitigare con successo il pregiudizio nei sistemi di intelligenza artificiale. Tuttavia, con l’intelligenza artificiale sempre più utilizzata nelle aziende per informare le decisioni, è vitale che le organizzazioni si impegnino a ridurre il pregiudizio, non solo per motivi morali, ma anche per rispettare i requisiti normativi e costruire entrate.

“Cultura e implementazione consapevoli dell’equità”

Le soluzioni che si concentrano sulla progettazione e sull’implementazione consapevoli dell’equità avranno i risultati più benefici. I fornitori dovrebbero avere una cultura analitica che considera l’acquisizione, la gestione e la gestione responsabili dei dati come componenti necessari dell’equità algoritmica, perché se i risultati di un progetto di intelligenza artificiale sono generati da set di dati pregiudiziali, compromessi o distorti, le parti interessate non saranno adeguatamente protette da danni discriminatori.

Questi sono gli elementi dell’equità dei dati che i team di scienza dei dati devono tenere presente:

  • Rappresentatività: A seconda del contesto, sia la sottorappresentazione che la sovrarappresentazione di gruppi svantaggiati o protetti dalla legge nel campione di dati può portare a svantaggiare sistematicamente le parti vulnerabili nei risultati del modello addestrato. Per evitare questo tipo di pregiudizio di campionamento, l’esperienza di dominio sarà cruciale per valutare l’adattamento tra i dati raccolti o acquisiti e la popolazione sottostante da modellare. I membri del team tecnico dovrebbero offrire mezzi di rimedio per correggere i difetti di rappresentanza nel campionamento.
  • Adeguatezza e sufficienza: È importante capire se i dati raccolti sono sufficienti per lo scopo previsto del progetto. Set di dati insufficienti potrebbero non riflettere equamente le qualità che dovrebbero essere ponderate per produrre un risultato giustificato che sia coerente con lo scopo desiderato del sistema di intelligenza artificiale. Di conseguenza, i membri del team di progetto con competenze tecniche e politiche dovrebbero collaborare per determinare se la quantità di dati è sufficiente e adeguata allo scopo.
  • Integrità della fonte e accuratezza della misurazione: La mitigazione efficace del pregiudizio inizia all’inizio dei processi di estrazione e raccolta dei dati. Sia le fonti che gli strumenti di misurazione possono introdurre fattori discriminatori nel set di dati. Per garantire la non discriminazione, il campione di dati deve avere un’integrità della fonte ottimale. Ciò comporta la sicurezza o la conferma che i processi di raccolta dei dati coinvolti fonti di misurazione adeguate, affidabili e imparziali e metodi di raccolta robusti.
  • Tempestività e attualità: Se i set di dati includono dati obsoleti, allora i cambiamenti nella distribuzione sottostante dei dati possono influenzare negativamente la generalizzabilità del modello addestrato. Se questi spostamenti di distribuzione riflettono cambiamenti nelle relazioni sociali o nella dinamica di gruppo, questa perdita di accuratezza riguardo alle caratteristiche effettive della popolazione sottostante può introdurre pregiudizi nel sistema di intelligenza artificiale. Nella prevenzione di risultati discriminatori, la tempestività e l’attualità di tutti gli elementi del set di dati dovrebbero essere esaminate.
  • Pertinenza, adeguatezza e conoscenza del dominio: La comprensione e l’utilizzo delle fonti e dei tipi di dati più appropriati sono cruciali per costruire un sistema di intelligenza artificiale robusto e non pregiudiziale. Una solida conoscenza del dominio della distribuzione della popolazione sottostante e dell’obiettivo predittivo del progetto è strumentale per la selezione di input di misurazione ottimamente pertinenti che contribuiscono alla ragionevole risoluzione della soluzione definita. Gli esperti del dominio dovrebbero collaborare strettamente con i team di scienza dei dati per assistere nella determinazione di categorie e fonti di misurazione ottimamente adeguate.

Mentre i sistemi basati sull’intelligenza artificiale assistono nei processi di automazione delle decisioni e offrono risparmi di costo, le istituzioni finanziarie che considerano l’intelligenza artificiale come una soluzione devono essere vigili per assicurarsi che non si verifichino decisioni pregiudiziali. I leader della conformità dovrebbero essere in sintonia con il loro team di scienza dei dati per confermare che le capacità di intelligenza artificiale sono responsabili, efficaci e prive di pregiudizio. Avere una strategia che promuove un’intelligenza artificiale responsabile è la cosa giusta da fare e potrebbe anche fornire un percorso per la conformità con le future norme sull’intelligenza artificiale.

Danny Butvinik è il Chief Data Scientist di NICE Actimize, fornendo leadership tecnica e professionale. Danny è un esperto in intelligenza artificiale e scienza dei dati, avendo scritto numerosi articoli e saggi scientifici. Nel suo ruolo attuale, gestisce un grande gruppo di data scientist e contribuisce alla crescita dell'innovazione e della proprietà intellettuale dell'azienda, con oltre 15 anni di esperienza nella ricerca, sviluppo e gestione nella scienza dei dati e nello sviluppo di software.