Connect with us

Ethische Nutzung von KI ist nicht nur das Richtige, sondern auch gutes Geschäft

Vordenker

Ethische Nutzung von KI ist nicht nur das Richtige, sondern auch gutes Geschäft

mm

Da die Nutzung von KI in die Höhe schießt und Organisationen in allen Branchen KI-basierte Tools und Anwendungen nutzen, sollte es nicht überraschen, dass Cyberkriminelle bereits Wege finden, diese Tools für ihren eigenen Vorteil zu nutzen. Aber während es wichtig ist, KI vor möglichen Cyberangriffen zu schützen, geht das Problem von KI-Risiken weit über die Sicherheit hinaus. Weltweit beginnen Regierungen, die Entwicklung und Nutzung von KI zu regulieren – und Unternehmen können erheblichen Reputationsschaden erleiden, wenn sie dabei erwischt werden, KI auf unangemessene Weise zu nutzen. Heutige Unternehmen entdecken, dass die Nutzung von KI auf ethische und verantwortungsvolle Weise nicht nur das Richtige ist, sondern auch entscheidend ist, um Vertrauen aufzubauen, die Einhaltung von Vorschriften zu gewährleisten und sogar die Qualität ihrer Produkte zu verbessern.

Die regulatorische Realität im Umfeld von KI

Die sich schnell verändernde regulatorische Landschaft sollte für Anbieter, die KI-basierte Lösungen anbieten, ein ernstes Anliegen sein. Zum Beispiel verfolgt der EU-KI-Gesetz, das 2024 verabschiedet wurde, einen risikobasierten Ansatz für die KI-Regulierung und erklärt Systeme, die Praktiken wie soziale Bewertung, manipulatives Verhalten und andere potenziell unethische Aktivitäten ausüben, für “inakzeptabel”. Diese Systeme sind verboten, während andere “hochrisikoreiche” KI-Systeme strengeren Verpflichtungen hinsichtlich Risikobewertung, Datenqualität und Transparenz unterliegen. Die Strafen für Nichtbefolgung sind streng: Unternehmen, die KI auf inakzeptable Weise nutzen, können mit Bußgeldern von bis zu 35 Millionen Euro oder 7% ihres jährlichen Umsatzes belegt werden.
Das EU-KI-Gesetz ist nur ein Teil der Gesetzgebung, aber es veranschaulicht deutlich die hohen Kosten, die mit dem Versagen, bestimmte ethische Schwellenwerte zu erreichen, verbunden sind. Staaten wie Kalifornien, New York, Colorado und andere haben ihre eigenen KI-Richtlinien erlassen, die meisten davon konzentrieren sich auf Faktoren wie Transparenz, Datenschutz und Vermeidung von Voreingenommenheit. Und obwohl die Vereinten Nationen nicht über die Durchsetzungsmechanismen verfügen, die Regierungen genießen, ist es erwähnenswert, dass alle 193 UN-Mitglieder einstimmig bestätigten, dass “Menschenrechte und Grundfreiheiten während des gesamten Lebenszyklus von künstlichen Intelligenzsystemen respektiert, geschützt und gefördert werden müssen” in einer Resolution von 2024. Weltweit stehen Menschenrechte und ethische Überlegungen immer mehr im Vordergrund, wenn es um KI geht.

Die Auswirkungen von schlechter KI-Ethik auf das Ansehen

Während Compliance-Bedenken sehr real sind, endet die Geschichte nicht dort. Die Tatsache ist, dass die Priorisierung ethischen Verhaltens die Qualität von KI-Lösungen grundlegend verbessern kann. Wenn ein KI-System eine inhärente Voreingenommenheit aufweist, ist das aus ethischen Gründen schlecht – aber es bedeutet auch, dass das Produkt nicht so gut funktioniert, wie es sollte. Zum Beispiel wurde bestimmte Gesichtserkennungstechnologie dafür kritisiert, dunkelhäutige Gesichter nicht so gut zu erkennen wie hellhäutige Gesichter. Wenn eine Gesichtserkennungslösung einen bedeutenden Teil der Subjekte nicht erkennen kann, stellt das ein ernstes ethisches Problem dar – aber es bedeutet auch, dass die Technologie selbst den erwarteten Nutzen nicht liefert und die Kunden nicht zufrieden sein werden. Die Bekämpfung von Voreingenommenheit mildert ethische Bedenken und verbessert die Qualität des Produkts selbst.
Bedenken hinsichtlich Voreingenommenheit, Diskriminierung und Fairness können Anbieter in Schwierigkeiten mit Regulierungsbehörden bringen, aber sie untergraben auch das Vertrauen der Kunden. Es ist eine gute Idee, bestimmte “rote Linien” zu haben, wenn es um die Nutzung von KI und die Zusammenarbeit mit Anbietern geht. KI-Anbieter, die mit Fehlinformationen, Massenüberwachung, sozialer Bewertung, unterdrückerischen Regierungen oder einfach nur mangelnder Rechenschaftspflicht in Verbindung gebracht werden, können Kunden unruhig machen, und Anbieter von KI-basierten Lösungen sollten dies bei der Auswahl ihrer Partner berücksichtigen. Transparenz ist fast immer besser – diejenigen, die sich weigern, offenzulegen, wie KI genutzt wird oder wer ihre Partner sind, wirken, als ob sie etwas verbergen, was normalerweise nicht zu positiven Gefühlen auf dem Markt führt.

Identifizierung und Minderung ethischer Warnsignale

Kunden lernen zunehmend, Anzeichen unethischen KI-Verhaltens zu erkennen. Anbieter, die zu viel versprechen, aber ihre KI-Fähigkeiten nicht erklären, sind wahrscheinlich weniger als ehrlich darüber, was ihre Lösungen tatsächlich können. Schlechte Datenpraktiken, wie übermäßiges Daten-Scraping oder die Unfähigkeit, sich aus der KI-Modellausbildung zurückzuziehen, können auch Warnsignale auslösen. Heute sollten Anbieter, die KI in ihren Produkten und Dienstleistungen nutzen, einen klaren, öffentlich zugänglichen Regulierungsrahmen mit Mechanismen für Rechenschaftspflicht haben. Diejenigen, die Zwangs-Schiedsverfahren verlangen oder schlimmer noch, keine Rechtsmittel anbieten, werden wahrscheinlich keine guten Partner sein. Gleiches gilt für Anbieter, die nicht bereit oder in der Lage sind, die Metriken bereitzustellen, mit denen sie Voreingenommenheit in ihren KI-Modellen bewerten und angehen. Heutige Kunden vertrauen nicht auf Black-Box-Lösungen – sie wollen wissen, wann und wie KI in den Lösungen eingesetzt wird, auf die sie angewiesen sind.
Für Anbieter, die KI in ihren Produkten nutzen, ist es wichtig, den Kunden zu vermitteln, dass ethische Überlegungen im Vordergrund stehen. Diejenigen, die ihre eigenen KI-Modelle trainieren, benötigen starke Prozesse zur Vermeidung von Voreingenommenheit, und diejenigen, die auf externe KI-Anbieter angewiesen sind, müssen Partner priorisieren, die für faires Verhalten bekannt sind. Es ist auch wichtig, den Kunden eine Wahl zu bieten: Viele sind immer noch unwohl damit, ihre Daten KI-Lösungen anzuvertrauen, und die Bereitstellung einer “Opt-out”-Möglichkeit für KI-Funktionen ermöglicht es ihnen, im eigenen Tempo zu experimentieren. Es ist auch kritisch, transparent zu sein, woher die Trainingsdaten stammen. Wiederum ist dies ethisch, aber es ist auch gutes Geschäft – wenn ein Kunde feststellt, dass die Lösung, auf die er angewiesen ist, auf urheberrechtlich geschützten Daten trainiert wurde, öffnet dies ihn für regulatorische oder rechtliche Maßnahmen. Indem Anbieter alles offenlegen, können sie Vertrauen mit ihren Kunden aufbauen und ihnen helfen, negative Ergebnisse zu vermeiden.

Die Priorisierung von Ethik ist die cleverste Geschäftsentscheidung

Vertrauen war immer ein wichtiger Teil jeder Geschäftsbeziehung. KI hat das nicht geändert – aber sie hat neue Überlegungen eingeführt, die Anbieter angehen müssen. Ethische Bedenken sind nicht immer im Vordergrund der Geschäftsleitung, aber wenn es um KI geht, kann unethisches Verhalten schwerwiegende Konsequenzen haben – einschließlich Reputationsschaden und möglichen Verstößen gegen Regulierungen und Vorschriften. Schlimmer noch, ein Mangel an Aufmerksamkeit für ethische Überlegungen wie die Minderung von Voreingenommenheit kann die Qualität der Produkte und Dienstleistungen eines Anbieters aktiv schädigen. Da die Nutzung von KI weiter an Fahrt gewinnt, erkennen Anbieter zunehmend, dass die Priorisierung ethischen Verhaltens nicht nur das Richtige ist, sondern auch gutes Geschäft.

Nick Kathmann ist CISO bei LogicGate. Mit mehr als 20 Jahren IT-Erfahrung hat Nick 18 Jahre damit verbracht, Unternehmen aller Größen zu helfen, ihre Cybersicherheitslage zu stärken. Er hat mehrere Teams aufgebaut und geleitet, die Cybersicherheitslösungen für komplexe, geschäftskritische Umgebungen bereitstellen, die von SMB bis hin zu Fortune-100-Unternehmen reichen, die entweder vor Ort in traditionellen Rechenzentren oder in der Cloud angesiedelt sind. Er verfügt auch über Erfahrung in mehreren Branchen, darunter Gesundheitswesen und Finanzdienstleistungen.