Vernetzen Sie sich mit uns

Vordenker

Voreingenommenheit und Fairness KI-basierter Systeme in der Finanzkriminalität

mm

Bei der Bekämpfung von Finanzkriminalität gibt es Herausforderungen, die über die bloße Bekämpfung von Betrügern oder anderen Übeltätern hinausgehen.

Einige der neuesten, fortschrittlichen Technologien, die auf den Markt kommen, weisen oft ihre eigenen spezifischen Probleme auf, die in der Einführungsphase berücksichtigt werden müssen, um Betrüger erfolgreich und ohne regulatorische Auswirkungen zu bekämpfen. Bei der Betrugserkennung können Modellgerechtigkeit und Datenverzerrung auftreten, wenn ein System stärker gewichtet ist oder bestimmte Datengruppen oder -kategorien nicht repräsentiert. Theoretisch könnte ein Vorhersagemodell fälschlicherweise Nachnamen aus anderen Kulturen mit betrügerischen Konten in Verbindung bringen oder das Risiko innerhalb von Bevölkerungsgruppen für bestimmte Arten von Finanzaktivitäten fälschlicherweise verringern.

Voreingenommene KI-Systeme können eine ernsthafte Bedrohung darstellen, wenn die Reputation beeinträchtigt werden kann und wenn verfügbare Daten nicht repräsentativ für die Bevölkerung oder das Explorationsphänomen sind. Diese Daten umfassen keine Variablen, die das Phänomen, das wir vorhersagen möchten, richtig erfassen. Alternativ könnten die Daten auch von Menschen erstellte Inhalte umfassen, die aufgrund kultureller und persönlicher Erfahrungen Vorurteile gegenüber bestimmten Personengruppen enthalten und zu Verzerrungen bei der Entscheidungsfindung führen könnten. Obwohl Daten auf den ersten Blick objektiv erscheinen mögen, werden sie dennoch von Menschen gesammelt und analysiert und können daher verzerrt sein.

Zwar gibt es kein Allheilmittel, wenn es darum geht, die Gefahren von Diskriminierung und Ungerechtigkeit in KI-Systemen zu beseitigen oder das Problem der Gerechtigkeit und Voreingenommenheitsminderung bei der Architektur und Verwendung von Modellen für maschinelles Lernen dauerhaft zu lösen, diese Probleme müssen jedoch sowohl für die Gesellschaft als auch für die Gesellschaft berücksichtigt werden geschäftliche Gründe.

Mit KI das Richtige tun

Die Bekämpfung von Vorurteilen in KI-basierten Systemen ist nicht nur richtig, sondern auch klug für Unternehmen – und für Unternehmensführer steht viel auf dem Spiel. Voreingenommene KI-Systeme können Finanzinstitute auf den falschen Weg führen, indem sie Chancen, Ressourcen, Informationen oder Servicequalität ungerecht verteilen. Sie können sogar die bürgerlichen Freiheiten verletzen, die Sicherheit des Einzelnen gefährden oder das Wohlergehen einer Person beeinträchtigen, wenn sie als herabwürdigend oder beleidigend empfunden werden.

Für Unternehmen ist es wichtig, die Macht und Risiken der KI-Voreingenommenheit zu verstehen. Auch wenn es der Institution oft nicht bekannt ist, könnte ein voreingenommenes KI-basiertes System schädliche Modelle oder Daten verwenden, die Rassen- oder Geschlechtervorurteile bei einer Kreditentscheidung aufdecken. Informationen wie Namen und Geschlecht könnten Stellvertreter für die Kategorisierung und Identifizierung von Bewerbern auf illegale Weise sein. Auch wenn die Voreingenommenheit unbeabsichtigt ist, stellt sie dennoch ein Risiko für die Organisation dar, da sie die gesetzlichen Anforderungen nicht einhält, und könnte dazu führen, dass bestimmten Personengruppen zu Unrecht Kredite oder Kreditlinien verweigert werden.

Derzeit verfügen Unternehmen nicht über die notwendigen Voraussetzungen, um Vorurteile in KI-Systemen erfolgreich zu mindern. Doch da KI immer häufiger in Unternehmen eingesetzt wird, um Entscheidungen zu treffen, ist es für Unternehmen von entscheidender Bedeutung, Vorurteile abzubauen, und zwar nicht nur aus moralischen Gründen, sondern auch, um regulatorische Anforderungen einzuhalten und Einnahmen zu steigern.

„Fairness-bewusste“ Kultur und Umsetzung

Lösungen, die sich auf fairnessbewusstes Design und Implementierung konzentrieren, werden die vorteilhaftesten Ergebnisse erzielen. Anbieter sollten über eine Analysekultur verfügen, die eine verantwortungsvolle Datenerfassung, -verarbeitung und -verwaltung als notwendige Bestandteile der algorithmischen Fairness betrachtet, denn wenn die Ergebnisse eines KI-Projekts durch verzerrte, kompromittierte oder verzerrte Datensätze generiert werden, sind die betroffenen Parteien nicht ausreichend davor geschützt diskriminierender Schaden.

Dies sind die Elemente der Datengerechtigkeit, die Data-Science-Teams berücksichtigen müssen:

  • Repräsentativität:Abhängig vom Kontext kann entweder eine Unter- oder Überrepräsentation benachteiligter oder gesetzlich geschützter Gruppen in der Datenstichprobe zu einer systematischen Benachteiligung der gefährdeten Parteien in den Ergebnissen des trainierten Modells führen. Um solche Stichprobenverzerrungen zu vermeiden, ist Domänenexpertise von entscheidender Bedeutung, um die Übereinstimmung zwischen den gesammelten oder erfassten Daten und der zugrunde liegenden Population, die modelliert werden soll, zu beurteilen. Mitglieder des technischen Teams sollten Abhilfemaßnahmen anbieten, um Darstellungsmängel in der Probenahme zu korrigieren.
  • Zweckmäßigkeit und Suffizienz: Es ist wichtig zu verstehen, ob die gesammelten Daten für den beabsichtigten Zweck des Projekts ausreichen. Unzureichende Datensätze spiegeln möglicherweise nicht angemessen die Qualitäten wider, die abgewogen werden sollten, um ein gerechtfertigtes Ergebnis zu erzielen, das mit dem gewünschten Zweck des KI-Systems übereinstimmt. Dementsprechend sollten Mitglieder des Projektteams mit technischen und politischen Kompetenzen zusammenarbeiten, um festzustellen, ob die Datenmenge ausreichend und für den Zweck geeignet ist.
  • Quellenintegrität und Messgenauigkeit:Eine wirksame Vermeidung von Verzerrungen beginnt ganz am Anfang der Datenextraktions- und -erfassungsprozesse. Sowohl die Quellen als auch die Messinstrumente können diskriminierende Faktoren in einen Datensatz einbringen. Um eine diskriminierende Schadensfreiheit zu gewährleisten, muss die Datenprobe eine optimale Quellenintegrität aufweisen. Dazu gehört die Sicherstellung bzw. Bestätigung, dass bei den Datenerfassungsprozessen geeignete, zuverlässige und unparteiische Messquellen und robuste Erfassungsmethoden zum Einsatz kamen.
  • Aktualität und Aktualität: Wenn die Datensätze veraltete Daten enthalten, können Änderungen in der zugrunde liegenden Datenverteilung die Generalisierbarkeit des trainierten Modells beeinträchtigen. Vorausgesetzt, dass diese Verteilungsabweichungen sich ändernde soziale Beziehungen oder Gruppendynamiken widerspiegeln, kann dieser Genauigkeitsverlust hinsichtlich der tatsächlichen Merkmale der zugrunde liegenden Bevölkerung zu einer Verzerrung des KI-Systems führen. Um diskriminierende Ergebnisse zu verhindern, sollten Aktualität und Aktualität aller Elemente des Datensatzes überprüft werden.
  • Relevanz, Angemessenheit und Domänenwissen: Das Verständnis und die Nutzung der am besten geeigneten Quellen und Datentypen sind entscheidend für den Aufbau eines robusten und unvoreingenommenen KI-Systems. Solide Domänenkenntnisse der zugrunde liegenden Bevölkerungsverteilung und des Vorhersageziels des Projekts sind entscheidend für die Auswahl optimal relevanter Messeingaben, die zu einer angemessenen Lösung der definierten Lösung beitragen. Fachexperten sollten eng mit Data-Science-Teams zusammenarbeiten, um bei der Bestimmung optimal geeigneter Kategorien und Messquellen zu helfen.

Während KI-basierte Systeme bei der Automatisierung von Entscheidungsprozessen helfen und Kosteneinsparungen ermöglichen, müssen Finanzinstitute, die KI als Lösung in Betracht ziehen, wachsam sein, um sicherzustellen, dass keine voreingenommenen Entscheidungen getroffen werden. Compliance-Verantwortliche sollten im Gleichschritt mit ihrem Data-Science-Team zusammenarbeiten, um sicherzustellen, dass die KI-Funktionen verantwortungsvoll, effektiv und frei von Voreingenommenheit sind. Eine Strategie, die sich für verantwortungsvolle KI einsetzt, ist richtig und kann auch einen Weg zur Einhaltung künftiger KI-Vorschriften bieten.

Danny Butvinik ist Chief Data Scientist bei NICE Actimize, Bereitstellung technischer und professioneller Führung. Danny ist Experte für künstliche Intelligenz und Datenwissenschaft und hat mehrere wissenschaftliche Artikel und Aufsätze verfasst. In seiner aktuellen Rolle leitet er eine große Gruppe von Datenwissenschaftlern und trägt mit über 15 Jahren Forschungs-, Entwicklungs- und Managementerfahrung in den Bereichen Datenwissenschaft und Softwareentwicklung zum Wachstum von Innovationen und zum geistigen Eigentum des Unternehmens bei.