Vernetzen Sie sich mit uns

Ethik

KI-Ethikprinzipien werden einer Metaanalyse unterzogen, wobei Menschenrechte im Vordergrund stehen

mm

Im Jahr 2019 lag der Schwerpunkt mehr auf der KI-Ethik als je zuvor. Allerdings schien ein Großteil dieser Diskussion verschwommen und ohne kodifizierten Ansatz. Vielmehr haben verschiedene Unternehmen ihre eigenen Rahmenwerke und Richtlinien zur KI-Ethik erstellt. Ein Konsens zu KI-Ethikfragen ist wichtig, da er politischen Entscheidungsträgern bei der Erstellung und Anpassung von Richtlinien hilft und auch die Arbeit von Forschern und Wissenschaftlern beeinflusst. Darüber hinaus müssen KI-Unternehmen wissen, wo ethische Grenzen liegen, wenn sie eine unethische KI-Implementierung vermeiden wollen. Um ein besseres Bild der Trends in der KI-Ethik zu erstellen, wie VentureBeats berichtet, das Berkman Klein Center der Harvard University führte eine Metaanalyse durch der verschiedenen bestehenden Prinzipien und Rahmenwerke der KI-Ethik.

Den Autoren der Analyse zufolge wollten die Forscher die Prinzipien nebeneinander vergleichen, um nach Überschneidungen und Abweichungen zu suchen. Jessica Fjeld, stellvertretende Direktorin der Cyberlaw Clinic der Harvard Law School, erklärte, dass das Forschungsteam „die verborgene Dynamik in einer fragmentierten, globalen Diskussion über die Zukunft der KI aufdecken wollte, was zu diesem Whitepaper und der damit verbundenen Datenvisualisierung führte.“

Während der Analyse untersuchte das Team 36 verschiedene KI-Grundsatzdokumente aus der ganzen Welt und von vielen verschiedenen Organisationstypen. Die Ergebnisse der Untersuchung ergaben, dass es acht Themen gab, die in den vielen Dokumenten immer wieder auftauchten.

Datenschutz und Rechenschaftspflicht waren zwei der am häufigsten vorkommenden ethischen Themen, ebenso wie KI-Sicherheit. Auch Transparenz/Erklärbarkeit war ein häufig genanntes Ziel, wobei im Laufe des Jahres 2019 viele Versuche unternommen wurden, Algorithmen besser erklärbar zu machen. Fairness/Nichtdiskriminierung war ein weiterer ethischer Schwerpunkt, der die wachsende Besorgnis über Datenverzerrungen widerspiegelte. Auch die Sicherstellung der menschlichen Kontrolle über die Technologie und die Nichtübergabe der Entscheidungsbefugnis an die KI wurde häufig erwähnt. Berufliche Verantwortung war das siebte gemeinsame Thema, das die Forscher fanden. Schließlich fanden die Forscher in der von ihnen untersuchten KI-Ethikdokumentation eine kontinuierliche Erwähnung der Förderung menschlicher Werte.

Das Forschungsteam gab in seinem Papier und in einem Begleitpapier qualitative und quantitative Aufschlüsselungen darüber, wie sich diese Themen in der KI-Ethikdokumentation manifestierten Karte. Auf der Karte wird angezeigt, wo die einzelnen Themen erwähnt wurden.

Das Forschungsteam stellte fest, dass sich ein Großteil der KI-Ethikdiskussion um die Sorge um menschliche Werte und Rechte drehte. In der Forschungsarbeit heißt es:

„64 % unserer Dokumente enthielten einen Verweis auf Menschenrechte, und fünf Dokumente [14 %] nahmen internationale Menschenrechte als Rahmen für ihre Gesamtbemühungen.“

Verweise auf Menschenrechte und Werte waren in Dokumenten häufiger, die von Gruppen des Privatsektors und der Zivilgesellschaft erstellt wurden. Dies deutet darauf hin, dass es Unternehmen im privaten KI-Sektor nicht nur um Gewinne geht, sondern auch darum, KI auf ethische Weise zu produzieren. Unterdessen scheinen sich Regierungsbehörden insgesamt weniger um die KI-Ethik zu kümmern oder sich weniger bewusst zu sein, da weniger als die Hälfte der KI-bezogenen Dokumente von Regierungsbehörden stammen, die sich mit der KI-Ethik befassen.

Die Forscher stellten außerdem fest, dass die von ihnen untersuchten Dokumente mit größerer Wahrscheinlichkeit alle acht wichtigsten Themen behandeln und nicht nur einige wenige. Diese Tatsache impliziert, dass die Vorstellungen, die hinter dem ethischen Einsatz von KI stehen, unter denjenigen, die die Diskussion über KI-Ethik leiten, allmählich zu verschmelzen beginnen. Abschließend stellen die Forscher fest, dass der Erfolg dieser Prinzipien bei der Steuerung der KI-Entwicklung davon abhängt, wie gut sie in die KI-Entwicklungsgemeinschaft insgesamt integriert sind. Die Forscher geben in dem Papier an:

„Darüber hinaus sind Prinzipien ein Ausgangspunkt für Governance, nicht ihr Ende. Es ist unwahrscheinlich, dass eine Reihe von Grundsätzen für sich genommen mehr als sanft überzeugend sein wird. Seine Auswirkungen werden wahrscheinlich davon abhängen, wie es in ein größeres Governance-Ökosystem eingebettet ist, einschließlich beispielsweise relevanter Richtlinien (z. B. nationaler KI-Pläne), Gesetzen, Vorschriften, aber auch beruflichen Praktiken und alltäglichen Routinen.“

Blogger und Programmierer mit Spezialisierung auf Maschinelles lernen und Tiefes Lernen Themen. Daniel hofft, anderen dabei zu helfen, die Macht der KI für das soziale Wohl zu nutzen.