Connect with us

Bias und Fairness von künstlicher Intelligenz-basierten Systemen im Finanzkriminalitätsbereich

Vordenker

Bias und Fairness von künstlicher Intelligenz-basierten Systemen im Finanzkriminalitätsbereich

mm

Wenn es um den Kampf gegen Finanzkriminalität geht, gibt es Herausforderungen, die über den Bereich des bloßen Stoppen von Betrügern oder anderen schlechten Akteuren hinausgehen.

Einige der neuesten, fortschrittlichen Technologien, die gestartet werden, haben oft ihre eigenen spezifischen Probleme, die während der Adoptionsphase berücksichtigt werden müssen, um erfolgreich Betrüger ohne regulatorische Konsequenzen zu bekämpfen. Bei der Betrugsbekämpfung können Modellfairness und Datenbias auftreten, wenn ein System stärker gewichtet oder bestimmte Gruppen oder Kategorien von Daten nicht ausreichend repräsentiert. Theoretisch könnte ein Vorhersagemodell fälschlicherweise Nachnamen aus anderen Kulturen mit betrügerischen Konten in Verbindung bringen oder das Risiko innerhalb von Bevölkerungssegmenten für bestimmte Arten von Finanzaktivitäten falsch einschätzen.

Voreingenommene künstliche Intelligenz-Systeme können eine ernsthafte Bedrohung darstellen, wenn Reputationsverluste auftreten können und wenn die verfügbaren Daten nicht repräsentativ für die Population oder das Phänomen sind, das erforscht wird. Diese Daten enthalten keine Variablen, die das Phänomen, das wir vorhersagen möchten, ordnungsgemäß erfassen. Alternativ könnten die Daten Inhalte enthalten, die von Menschen erstellt wurden, die möglicherweise Vorurteile gegenüber Gruppen von Menschen enthalten, die durch kulturelle und persönliche Erfahrungen vererbt werden, was zu Verzerrungen bei der Entscheidungsfindung führt. Zwar mögen die Daten auf den ersten Blick objektiv erscheinen, sie werden jedoch von Menschen gesammelt und analysiert und können daher voreingenommen sein.

Da es keine Patentlösung gibt, wenn es um die Bekämpfung der Gefahren von Diskriminierung und Ungerechtigkeit in künstlichen Intelligenz-Systemen oder dauerhafte Lösungen für das Problem der Fairness und des Bias-Mitigierens bei der Architektur von Machine-Learning-Modellen und deren Nutzung geht, müssen diese Fragen aus sowohl gesellschaftlichen als auch geschäftlichen Gründen berücksichtigt werden.

Das Richtige tun bei künstlicher Intelligenz

Die Bekämpfung von Voreingenommenheit in künstlichen Intelligenz-basierten Systemen ist nicht nur das Richtige, sondern auch das Klügste für Unternehmen – und die Einsätze für Geschäftsleiter sind hoch. Voreingenommene künstliche Intelligenz-Systeme können Finanzinstitute auf den falschen Weg führen, indem sie Chancen, Ressourcen, Informationen oder die Qualität der Dienstleistungen ungerecht zuweisen. Sie können sogar gegen bürgerliche Freiheiten verstoßen, die Sicherheit von Personen gefährden oder deren Wohlbefinden beeinträchtigen, wenn sie als herabwürdigend oder beleidigend wahrgenommen werden.

Es ist wichtig, dass Unternehmen die Macht und die Risiken von künstlicher Intelligenz-Voreingenommenheit verstehen. Obwohl oft unbekannt für die Institution, könnte ein voreingenommenes künstliches Intelligenz-System schädliche Modelle oder Daten verwenden, die Rassismus oder Geschlechtervorurteile in eine Kreditentscheidung einbeziehen. Informationen wie Namen und Geschlecht könnten als Stellvertreter für die Kategorisierung und Identifizierung von Antragstellern auf illegale Weise dienen. Selbst wenn die Voreingenommenheit unabsichtlich ist, stellt sie die Organisation dennoch durch die Nichteinhaltung regulatorischer Anforderungen aufs Spiel und könnte dazu führen, dass bestimmte Gruppen von Menschen ungerechtfertigt Kredite oder Kreditlinien verweigert werden.

Derzeit haben Organisationen nicht die notwendigen Mittel, um Voreingenommenheit in künstlichen Intelligenz-Systemen erfolgreich zu bekämpfen. Aber da künstliche Intelligenz zunehmend in Unternehmen eingesetzt wird, um Entscheidungen zu treffen, ist es wichtig, dass Organisationen danach streben, Voreingenommenheit zu reduzieren, nicht nur aus moralischen Gründen, sondern auch, um regulatorischen Anforderungen zu entsprechen und Umsatz zu generieren.

“Fairness-bewusste” Kultur und Implementierung

Lösungen, die auf fairness-bewusste Gestaltung und Implementierung ausgerichtet sind, werden die vorteilhaftesten Ergebnisse haben. Anbieter sollten eine analytische Kultur haben, die verantwortungsvolle Datenerfassung, -verwaltung und -verwaltung als notwendige Komponenten der algorithmischen Fairness betrachtet, da die Ergebnisse eines künstlichen Intelligenz-Projekts, die durch voreingenommene, kompromittierte oder verzerrte Datensätze generiert werden, die betroffenen Parteien nicht ausreichend vor diskriminierendem Schaden schützen.

Diese sind die Elemente der Datenfairness, die Datenwissenschaftler im Auge behalten müssen:

  • Repräsentativität:Je nach Kontext kann eine Unter- oder Überrepräsentation von benachteiligten oder rechtlich geschützten Gruppen in der Datensample dazu führen, dass die verletzlichen Parteien in den Ergebnissen des trainierten Modells systematisch benachteiligt werden. Um solche Arten von Stichprobenbias zu vermeiden, ist Fachwissen aus dem Bereich erforderlich, um die Übereinstimmung zwischen den gesammelten oder erworbenen Daten und der zugrunde liegenden Population zu bewerten, die modelliert werden soll. Technische Teammitglieder sollten Mittel zur Behebung von Repräsentationsfehlern in der Stichprobe anbieten.
  • Passend für den Zweck und ausreichend:Es ist wichtig, zu verstehen, ob die gesammelten Daten für den beabsichtigten Zweck des Projekts ausreichend sind. Unzureichende Datensätze mögen die Eigenschaften, die zur Erzielung eines gerechtfertigten Ergebnisses, das mit dem gewünschten Zweck des künstlichen Intelligenz-Systems übereinstimmt, nicht ausgewogen widerspiegeln. Entsprechend sollten Mitglieder des Projektteams mit technischen und politischen Kompetenzen zusammenarbeiten, um zu bestimmen, ob die Datenmenge ausreichend und passend für den Zweck ist.
  • Quellenintegrität und Messgenauigkeit:Effektive Voreingenommenheitsbekämpfung beginnt bereits am Anfang der Datenerfassungs- und -sammlungsprozesse. Sowohl die Quellen als auch die Messwerkzeuge können diskriminierende Faktoren in einen Datensatz einführen. Um diskriminierenden Schaden zu vermeiden, muss die Datensample eine optimale Quellenintegrität aufweisen. Dies beinhaltet die Sicherstellung oder Bestätigung, dass die Datenerfassungsprozesse geeignete, zuverlässige und unparteiische Quellen der Messung und robuste Methoden der Erfassung umfassten.
  • Aktualität und Neuheit:Wenn die Datensätze veraltete Daten enthalten, können Änderungen in der zugrunde liegenden Datenverteilung die Verallgemeinerbarkeit des trainierten Modells negativ beeinflussen. Wenn diese Verteilungsdrifts Veränderungen in sozialen Beziehungen oder Gruppendynamiken widerspiegeln, kann dieser Verlust an Genauigkeit hinsichtlich der tatsächlichen Eigenschaften der zugrunde liegenden Population Voreingenommenheit in das künstliche Intelligenz-System einführen. Um diskriminierende Ergebnisse zu vermeiden, sollten die Aktualität und Neuheit aller Elemente des Datensatzes überprüft werden.
  • Relevanz, Angemessenheit und Fachwissen:Das Verständnis und die Verwendung der am besten geeigneten Quellen und Arten von Daten sind entscheidend für den Aufbau eines robusten und unvoreingenommenen künstlichen Intelligenz-Systems. Solides Fachwissen über die zugrunde liegende Populationsverteilung und über das vorhergesagte Ziel des Projekts ist von entscheidender Bedeutung für die Auswahl optimal relevanter Messungen, die zur vernünftigen Lösung der definierten Lösung beitragen. Fachexperten sollten eng mit Datenwissenschaftlern zusammenarbeiten, um die am besten geeigneten Kategorien und Quellen der Messung zu bestimmen.

Da künstliche Intelligenz-Systeme bei der Automatisierung von Entscheidungsprozessen helfen und Kosteneinsparungen bieten, müssen Finanzinstitute, die künstliche Intelligenz als Lösung in Betracht ziehen, wachsam sein, um sicherzustellen, dass voreingenommene Entscheidungen nicht getroffen werden. Compliance-Führer sollten mit ihrem Datenwissenschaftsteam Schritt halten, um zu bestätigen, dass die künstlichen Intelligenz-Fähigkeiten verantwortungsvoll, effektiv und frei von Voreingenommenheit sind. Eine Strategie, die verantwortungsvolle künstliche Intelligenz fördert, ist das Richtige, und sie kann auch einen Weg zu Einhaltung zukünftiger künstlicher Intelligenz-Regulierungen bieten.

Danny Butvinik ist der Chief Data Scientist bei NICE Actimize, wo er technische und professionelle Führung bietet. Danny ist ein Experte in künstlicher Intelligenz und Data Science, hat mehrere wissenschaftliche Artikel und Aufsätze verfasst. In seiner aktuellen Rolle leitet er eine große Gruppe von Data Scientists und trägt zum Wachstum von Innovation und geistigem Eigentum des Unternehmens bei, mit über 15 Jahren Erfahrung in Forschung, Entwicklung und Management im Bereich Data Science und Softwareentwicklung.