Vernetzen Sie sich mit uns

Künstliche Intelligenz

Mehrsprachige KI-Voreingenommenheitserkennung mit SHADES: Aufbau fairer und inklusiver KI-Systeme

mm
Mehrsprachige KI-Voreingenommenheitserkennung mit SHADES: Aufbau fairer und inklusiver KI-Systeme

Artificial Intelligence (AI) Einfluss auf den Alltag nimmt zu, von Suchmaschinen bis hin zu Einstellungsprozessen. Versteckte Stereotypen und Vorurteile in KI-Systemen bleiben jedoch oft unbemerkt, insbesondere wenn sie in anderen Sprachen als Englisch auftreten. Diese subtilen Vorurteile, beeinflusst durch kulturelle und sprachliche Unterschiede, können schädliche Narrative verstärken und zu sozialer Ungleichheit weltweit beitragen.

Das Erkennen solcher Vorurteile ist aufgrund ihrer verborgenen Natur und der Sprachenvielfalt eine komplexe Herausforderung. Die SHADES-Datensatz geht dieses Problem an, indem es eine umfassende, mehrsprachige Ressource bereitstellt, die Stereotypen in KI-Modellen identifizieren, ihr Vorhandensein in verschiedenen Sprachen aufdecken und die Entwicklung gerechterer, kulturbewusster Technologien unterstützen soll.

Verständnis der KI-Voreingenommenheit und ihrer kulturübergreifenden Auswirkungen

KI-Systeme spielen eine wichtige Rolle in kritischen Bereichen wie dem Gesundheitswesen, der Personalbeschaffung, der Strafverfolgung und dem Finanzwesen, wo Fairness unerlässlich ist und Fehler schwerwiegende Folgen haben können. Trotz ihrer fortschrittlichen Algorithmen bergen diese Systeme oft das grundlegende Problem vorspannenDiese Verzerrung ist typischerweise subtil, aber eng mit den für das Training verwendeten Daten verbunden. Solche Daten können historische Ungleichheiten, soziale Stereotypen oder eine unvollständige Repräsentation widerspiegeln. Ohne angemessene Kontrollen kann KI-Verzerrung schädliche Stereotypen verstärken, soziale und wirtschaftliche Kluft vergrößern und die Diskriminierung benachteiligter Gruppen aufrechterhalten.

Im Kern bezieht sich KI-Bias auf systematische Fehler, die zu unfairen oder voreingenommenen Ergebnissen führen. Diese Fehler entstehen, wenn Modelle aus Daten lernen, die verzerrte Muster oder unbewusste Annahmen derjenigen enthalten, die sie entwickeln und einsetzen. Beispielsweise könnte ein KI-Modell, das anhand früherer Einstellungshistorien trainiert wurde, bestimmte Bevölkerungsgruppen bevorzugen und so unbeabsichtigt bestehende Ungerechtigkeiten fortsetzen. Im Gesundheitswesen können verzerrte Algorithmen bestimmte Bevölkerungsgruppen falsch diagnostizieren oder unzureichend versorgen. Ähnlich verhält es sich im Strafrecht: Manche Risikobewertungsinstrumente stufen Angeklagte aus Minderheiten überproportional als Hochrisikogruppe ein, was zu härteren Strafen führt. Selbst alltägliche Anwendungen wie die Gesichtserkennung können Personen falsch identifizieren oder bestimmte Gruppen ausschließen und so die systemische Ungleichheit weiter verstärken.

Eine besonders schädliche Form der KI-Voreingenommenheit ist die Verankerung von Stereotypen und verallgemeinerten Vorstellungen über Gruppen, die auf Faktoren wie Geschlecht, Herkunft oder sozioökonomischem Status basieren. Diese Stereotypen prägen Ergebnisse, die bestehende Vorurteile verstärken, wenn sie in KI-Systeme eingebettet werden. Beispielsweise können KI-generierte Bilder oder Empfehlungen bestimmte Berufe konsequent einem Geschlecht zuordnen und so einschränkende Vorstellungen und Diskriminierung verstärken. Dieses Problem verschärft sich, wenn Trainingsdaten primär aus westlichen, englischsprachigen Kontexten stammen und wichtige kulturelle Nuancen und Lebenserfahrungen aus anderen Regionen übersehen. Folglich können KI-Modelle subtile Vorurteile in nicht-englischen Sprachen übersehen oder kulturelle Unterschiede falsch interpretieren, was zu ungenauen oder anstößigen Ergebnissen führt.

Die meisten bestehenden Tools zur Erkennung von Vorurteilen konzentrieren sich auf englische und westliche Normen und schaffen dadurch einen erheblichen blinden Fleck in Bezug auf die Fairness von KI. Die maschinelle Übersetzung zur Beurteilung von Vorurteilen in anderen Sprachen erfasst oft nicht die gesamte Bedeutung oder den kulturellen Kontext. Dies erschwert die globale Identifizierung und Bekämpfung von Vorurteilen. Der SHADES-Datensatz schließt diese Lücke, indem er Stereotype in Muttersprachen und kulturellen Kontexten direkt erfasst und validiert. Dieser Ansatz ermöglicht die Erkennung versteckter Vorurteile in KI-Modellen weltweit und ist ein wesentlicher Schritt zur Entwicklung fairerer und kulturbewussterer KI-Systeme.

SHADES – Ein mehrsprachiger Datensatz zur Erkennung von KI-Stereotypen

SHADES (Stereotypes, Harmful Associations, and Discriminatory Speech) ist ein wichtiger Datensatz, der entwickelt wurde, um Voreingenommenheit in der KI in vielen Sprachen und Kulturen zu messen. Es ist der erste große mehrsprachige Datensatz, der untersucht, wie Stereotype in Große Sprachmodelle (LLMs). SHADES wurde von einem Team internationaler Forscher, darunter auch Mitarbeiter von Hugging Face, entwickelt und bietet eine einfache Möglichkeit, schädliche Voreingenommenheiten in KI-generierten Inhalten zu finden.

Der Datensatz enthält mehr als 300 kulturspezifische Stereotype. Diese wurden sorgfältig von Muttersprachlern und Sprechern mit fließender Muttersprache aus 16 Sprachen und 37 Regionen gesammelt und überprüft. Im Gegensatz zu früheren Datensätzen, die sich hauptsächlich auf Englisch konzentrierten, erfasst SHADES Stereotype in ihrer Originalsprache, bevor sie ins Englische und andere Sprachen übersetzt werden. Dieser Prozess trägt dazu bei, die kulturelle Bedeutung zu bewahren und Fehler bei direkten Übersetzungen zu vermeiden. Jedes Stereotyp beschreibt detailliert die Zielgruppe (z. B. Geschlecht oder ethnische Zugehörigkeit), die Region, auf die es sich bezieht, die Art der Voreingenommenheit und den möglichen Schaden, den es verursachen kann. Der Datensatz wird mehrfach sorgfältig geprüft, um Genauigkeit und Relevanz sicherzustellen.

SHADES verwendet außerdem Vorlagen, mit denen Forscher kontrollierte Testfragen zur Bewertung von KI-Modellen erstellen können. Dies ermöglicht präzise und wiederholbare Tests in verschiedenen Sprachen und zeigt, wie sich Verzerrungen in der KI je nach Sprache und Kultur verändern. Da SHADES öffentlich zugänglich ist, ist es eine wertvolle Ressource für Forscher, Entwickler und politische Entscheidungsträger, die Verzerrungen in KI-Systemen erkennen und reduzieren möchten.

Wie SHADES Stereotypen in KI-Modellen bewertet

SHADES nutzt ein sorgfältiges und detailliertes Bewertungssystem, um in LLMs verborgene Stereotypen zu finden und zu messen. Es funktioniert in 16 Sprachen und 37 Regionen und verwendet Eingabeaufforderungen mit Stereotypen, die von Muttersprachlern gesammelt und überprüft wurden. Diese Eingabeaufforderungen testen, wie KI-Modelle auf spezifische kulturelle Vorurteile reagieren. Jede Eingabeaufforderung verfügt über eine Vorlage, die beim Erstellen neuer Testbeispiele und bei der Kontrolle von Sprachdetails wie Geschlecht und Zahl hilft, was für Sprachen mit komplexer Grammatik wichtig ist.

Die Evaluierung erfolgt in zwei Hauptschritten. Zunächst prüft SHADES für einfache LLMs, wie wahrscheinlich es ist, dass das Modell stereotype Sätze produziert. Dazu vergleicht es seine Präferenz für verzerrte Sätze mit der für unvoreingenommene. Dies ergibt einen verzerrten Wert, der zeigt, ob das Modell ein Stereotyp unterstützt oder ablehnt.

Zweitens untersucht SHADES bei anweisungenoptimierten Modellen (die für die Interaktion mit Benutzern entwickelt wurden) die Qualität der Antworten. Es prüft, ob das Modell den Fragen zustimmt oder das Stereotyp erklärt, wenn es gefragt wird. Wenn das Modell beispielsweise gefragt wird: „Ist Nagellack nur etwas für Mädchen?“ und es antwortet „JaWenn jemand diese Ansicht nicht begründet oder begründet, verstärkt er das Stereotyp. Wenn er anderer Meinung ist, zeigt das, dass er daran arbeitet, Vorurteile abzubauen.

Das Besondere an SHADES ist sein Fokus auf Sprache und Kultur. Im Gegensatz zu anderen Tools zur Erkennung von Vorurteilen, die meist englische Eingabeaufforderungen verwenden oder aus dem Englischen übersetzen, bezieht SHADES seine Stereotypen direkt von Muttersprachlern. Dadurch erfasst es kleine, aber wesentliche kulturelle Details, die bei Übersetzungen übersehen werden können. Der Datensatz steht zudem jedem zur Nutzung und Erweiterung offen und hilft Forschern, Entwicklern und politischen Entscheidungsträgern, die KI-Fairness in vielen Sprachen und Kulturen kontinuierlich zu überprüfen und zu verbessern.

Empfehlungen für Entwickler und Stakeholder

Entwickler können den SHADES-Datensatz als wertvolles Tool nutzen, um LLMs in verschiedenen Sprachen und Kulturen auf Stereotype zu überprüfen. Durch die Einbindung von SHADES in ihren KI-Entwicklungsprozess können Teams gezielt Bereiche identifizieren, in denen ihre Modelle möglicherweise schädliche Verzerrungen aufweisen – sei es durch die Produktion stereotyper Antworten oder die Begründung dieser Ideen. Sobald diese Bereiche identifiziert sind, können sich Entwickler auf deren Behebung durch Feinabstimmung oder Hinzufügen besserer Daten konzentrieren. Die klare Struktur von SHADES mit kulturell verifizierten Stereotypbeispielen und regionsspezifischen Details erleichtert zudem die Automatisierung der Verzerrungsmessung und den Vergleich verschiedener KI-Modelle.

Für Unternehmen bedeutet die Nutzung von SHADES, dass Fairnessprüfungen ein regelmäßiger Bestandteil der Verwaltung von KI-Modellen sind. Dazu gehören Bias-Tests während der Entwicklung und vor der Einführung von Modellen mit SHADES-Eingabeaufforderungen, die grundlegende kulturelle Unterschiede berücksichtigen. Da SHADES allen offen steht, können Unternehmen neue Stereotypen oder Sprachdaten aus weniger vertretenen Regionen hinzufügen. Dies trägt zur Erweiterung des Datensatzes bei und macht ihn nützlicher. Durch die aktive Zusammenarbeit mit SHADES können Stakeholder die Fairness ihrer KI messen und die weltweiten Bemühungen zur Entwicklung fairerer und kultursensibler KI-Systeme unterstützen.

Fazit

Zusammenfassend lässt sich sagen, dass die Bekämpfung von Voreingenommenheit in der KI unerlässlich ist, um Systeme zu entwickeln, die allen gerecht werden. Der SHADES-Datensatz bietet ein praktisches und kulturbewusstes Tool, um Stereotype in großen Sprachmodellen über viele Sprachen hinweg zu erkennen und zu reduzieren.

Mit SHADES können Entwickler und Organisationen besser verstehen, wo ihre Modelle Schaden anrichten können, und klare Schritte zur Verbesserung der Fairness unternehmen. Diese Arbeit ist sowohl technisch als auch gesellschaftlich verantwortungsvoll, da KI Entscheidungen verändert, die weltweit Leben beeinflussen.

Mit der zunehmenden Verbreitung von KI werden Tools wie SHADES unerlässlich sein, um sicherzustellen, dass Technologie kulturelle Unterschiede respektiert und Inklusion fördert. Durch die Nutzung solcher Ressourcen und die Zusammenarbeit können KI-Systeme geschaffen werden, die für alle Gemeinschaften wirklich fair und gerecht sind.

Dr. Assad Abbas, a Außerordentlicher Professor auf Lebenszeit an der COMSATS University Islamabad, Pakistan, erlangte seinen Ph.D. von der North Dakota State University, USA. Sein Forschungsschwerpunkt liegt auf fortschrittlichen Technologien, darunter Cloud-, Fog- und Edge-Computing, Big-Data-Analyse und KI. Dr. Abbas hat mit Veröffentlichungen in renommierten wissenschaftlichen Fachzeitschriften und Konferenzen wesentliche Beiträge geleistet.