Thought leaders
Vooroordelen en eerlijkheid van AI-gebaseerde systemen binnen financiële criminaliteit

Wanneer het gaat om het bestrijden van financiële criminaliteit, bestaan er uitdagingen die verder gaan dan het stoppen van oplichters of andere slechte actoren.
Sommige van de nieuwste, geavanceerde technologieën die worden gelanceerd, hebben vaak hun eigen specifieke problemen die moeten worden overwogen tijdens de adoptiefase om succesvol fraudeurs te bestrijden zonder regulatorische gevolgen. Bij fraudeopsporing kan modeloneerlijkheid en gegevensvooroordeel optreden wanneer een systeem zwaarder wordt gewogen of een gebrek aan representatie van bepaalde groepen of categorieën van gegevens heeft. In theorie kan een predictief model ten onrechte associëren namen uit andere culturen met frauduleuze accounts, of vals het risico verlagen binnen bevolkingssegmenten voor bepaalde soorten financiële activiteiten.
Gebiaseerde AI-systemen kunnen een ernstige bedreiging vormen wanneer reputaties kunnen worden beïnvloed en optreden wanneer de beschikbare gegevens niet representatief zijn voor de bevolking of het fenomeen van exploratie. Deze gegevens omvatten geen variabelen die het fenomeen dat we willen voorspellen, goed vastleggen. Of alternatief kunnen de gegevens inhoud bevatten die is gegenereerd door mensen, die mogelijk vooroordeel tegen groepen mensen bevatten, geërfd door culturele en persoonlijke ervaringen, wat leidt tot vertekeningen bij het nemen van beslissingen. Terwijl gegevens aanvankelijk objectief lijken, worden ze nog steeds verzameld en geanalyseerd door mensen en kunnen dus vooroordeel bevatten.
Hoewel er geen zilveren kogel is als het gaat om het verhelpen van de gevaren van discriminatie en oneerlijkheid in AI-systemen of permanente oplossingen voor het probleem van eerlijkheid en vooroordeelmitigatie bij het opzetten van machine learning-modellen en gebruik, moeten deze kwesties worden overwogen voor zowel sociale als zakelijke redenen.
Het juiste doen in AI
Het aanpakken van vooroordeel in AI-gebaseerde systemen is niet alleen het juiste, maar ook het slimme voor bedrijven — en de inzet voor bedrijfsleiders is hoog. Gebiaseerde AI-systemen kunnen financiële instellingen op het verkeerde pad zetten door kansen, middelen, informatie of kwaliteit van service oneerlijk toe te wijzen. Ze hebben zelfs het potentieel om inbreuk te maken op burgerrechten, een gevaar te vormen voor de veiligheid van individuen, of invloed te hebben op iemands welzijn als ze als minachtend of aanstootgevend worden beschouwd.
Het is belangrijk voor ondernemingen om de kracht en risico’s van AI-vooroordelen te begrijpen. Hoewel vaak onbekend bij de instelling, kan een gebiaseerd AI-gebaseerd systeem schadelijke modellen of gegevens gebruiken die ras- of geslachtsvooroordelen blootleggen in een kredietsbeslissing. Informatie zoals namen en geslacht kan proxies zijn voor het categoriseren en identificeren van aanvragers op illegale wijze. Zelfs als het vooroordeel onopzettelijk is, brengt het de organisatie nog steeds in gevaar door niet te voldoen aan de regulatorische vereisten en kan leiden tot het feit dat bepaalde groepen mensen oneerlijk worden geweigerd voor leningen of kredietlijnen.
Momenteel hebben organisaties niet de middelen om succesvol vooroordeel in AI-systemen te mitigeren. Maar met AI die steeds vaker wordt ingezet in bedrijven om beslissingen te informeren, is het essentieel dat organisaties streven naar het verminderen van vooroordeel, niet alleen om morele redenen, maar om te voldoen aan de regulatorische vereisten en omgeving op te bouwen.
“Eerlijkheidsbewuste” cultuur en implementatie
Oplossingen die zijn gericht op eerlijkheidsbewuste ontwerp en implementatie zullen de meest gunstige resultaten hebben. Aanbieders moeten een analytische cultuur hebben die verantwoorde gegevensverwerving, -behandeling en -beheer als noodzakelijke componenten van algoritme-eerlijkheid beschouwt, omdat de resultaten van een AI-project dat zijn gegenereerd door vooroordeel, compromitterende of scheve datasets, de getroffen partijen niet voldoende zullen beschermen tegen discriminatoire schade.
Dit zijn de elementen van gegevensrechtvaardigheid die datawetenschapsteams in gedachten moeten houden:
- Representativiteit:Afhankelijk van de context kan ondervertegenwoordiging of oververtegenwoordiging van benadeelde of wettelijk beschermde groepen in de gegevenssample leiden tot systematische benadeling van kwetsbare partijen in de resultaten van het getrainde model. Om dergelijke soorten steekproefvooroordeel te vermijden, is domeinexpertise essentieel om de fit tussen de verzamelde of verworven gegevens en de onderliggende bevolking te beoordelen die moet worden gemodelleerd. Technische teamleden moeten middelen bieden om representatieve gebreken in de steekproef te corrigeren.
- Geschikt voor doel en voldoende: Het is belangrijk om te begrijpen of de verzamelde gegevens voldoende zijn voor het beoogde doel van het project. Onvoldoende datasets kunnen de kwaliteiten die moeten worden afgewogen om een gerechtvaardigd resultaat te produceren dat consistent is met het gewenste doel van het AI-systeem, niet billijk weerspiegelen. Dienovereenkomstig moeten leden van het projectteam met technische en beleidsvaardigheden samenwerken om te bepalen of de gegevenshoeveelheid voldoende en geschikt is voor het doel.
- Bronintegriteit en meetnauwkeurigheid: Effectieve vooroordeelmitigatie begint bij het begin van de gegevensextractie- en verzamelingsprocessen. Zowel de bronnen als de meetinstrumenten kunnen discriminatoire factoren in een dataset introduceren. Om discriminatoire schade te voorkomen, moet de gegevenssample een optimale bronintegriteit hebben. Dit omvat het waarborgen of bevestigen dat de gegevensverzamelingsprocessen betrouwbare, betrouwbare en onpartijdige bronnen van meting en robuuste methoden van verzameling hebben gebruikt.
- Actualiteit en recentheid: Als de datasets verouderde gegevens bevatten, kunnen veranderingen in de onderliggende gegevensverdeling de generaliseerbaarheid van het getrainde model nadelig beïnvloeden. Gezien deze distributieve verschuivingen veranderingen in de onderliggende sociale relatie of groepsdynamiek weerspiegelen, kan dit verlies van nauwkeurigheid met betrekking tot de werkelijke kenmerken van de onderliggende bevolking vooroordeel in het AI-systeem introduceren. Om discriminatoire resultaten te voorkomen, moet de actualiteit en recentheid van alle elementen van de dataset worden onderzocht.
- Relevantie, geschiktheid en domeinkennis: Het begrijpen en gebruiken van de meest geschikte bronnen en soorten gegevens is cruciaal voor het opbouwen van een robuust en onbevooroordeeld AI-systeem. Solide domeinkennis van de onderliggende bevolkingsverdeling en van het predictieve doel van het project is instrumenteel voor het selecteren van optimale relevante meetinput die bijdraagt aan de redelijke oplossing van de gedefinieerde oplossing. Domeinexperts moeten nauw samenwerken met datawetenschapsteams om te helpen bij het bepalen van optimale categorieën en bronnen van meting.
Terwijl AI-gebaseerde systemen helpen bij het automatiseren van beslissingsprocessen en kostenbesparingen opleveren, moeten financiële instellingen die AI overwegen als een oplossing, waakzaam zijn om ervoor te zorgen dat gebiaseerde beslissingen niet plaatsvinden. Compliance-leiders moeten in overeenstemming zijn met hun datawetenschapteam om te bevestigen dat AI-mogelijkheden verantwoord, effectief en vrij van vooroordeel zijn. Een strategie die verantwoorde AI voorstaat, is het juiste om te doen, en het kan ook een pad naar naleving van toekomstige AI-regelgeving bieden.












