Stummel Wie menschliche Voreingenommenheit KI-gestützte Lösungen untergräbt – Unite.AI
Vernetzen Sie sich mit uns

Vordenker

Wie menschliche Voreingenommenheit KI-gestützte Lösungen untergräbt

mm

Veröffentlicht

 on

Im vergangenen September haben Weltführer wie Elon Musk, Mark Zuckerberg und Sam Altman, CEO von OpenAI, in Washington D.C. versammelt mit dem Ziel, einerseits zu diskutieren, wie der öffentliche und der private Sektor zusammenarbeiten können, um diese Technologie zum Wohle der Allgemeinheit zu nutzen, und andererseits die Regulierung anzugehen, ein Thema, das weiterhin im Vordergrund der Diskussion steht umgebende KI.

Beide Gespräche führen oft zum selben Ergebnis. Die Frage, ob wir KI ethischer machen können, wird zunehmend betont, indem wir KI so bewerten, als wäre sie ein anderer Mensch, dessen Moral in Frage gestellt würde. Doch was bedeutet ethische KI? DeepMind, ein Google-eigenes Forschungslabor, das sich auf KI konzentriert, hat kürzlich eine Studie veröffentlicht Darin schlugen sie eine dreistufige Struktur zur Bewertung der Risiken von KI vor, einschließlich sozialer und ethischer Risiken. Dieser Rahmen umfasste Fähigkeiten, menschliche Interaktion und systemische Auswirkungen und kam zu dem Schluss, dass der Kontext entscheidend ist, um zu bestimmen, ob ein KI-System sicher ist.

Eines dieser Systeme, das unter Beschuss geraten ist, ist ChatGPT. das in bis zu 15 Ländern verboten ist, auch wenn einige dieser Verbote aufgehoben wurden. Mit über 100 Millionen BenutzerChatGPT ist eines der erfolgreichsten LLMs und wird oft der Voreingenommenheit beschuldigt. Lassen Sie uns unter Berücksichtigung der DeepMind-Studie hier den Kontext einbeziehen. Voreingenommenheit bedeutet in diesem Zusammenhang das Vorhandensein unfairer, voreingenommener oder verzerrter Perspektiven im Text, der von Modellen wie ChatGPT generiert wird. Dies kann auf unterschiedliche Weise geschehen – rassistische Voreingenommenheit, geschlechtsspezifische Voreingenommenheit, politische Voreingenommenheit und vieles mehr.

Diese Vorurteile können sich letztendlich nachteilig auf die KI selbst auswirken und die Chancen verringern, das volle Potenzial dieser Technologie auszuschöpfen. Jüngste Forschung von der Stanford University hat bestätigt, dass LLMs wie ChatGPT Anzeichen eines Rückgangs in Bezug auf ihre Fähigkeit zeigen, zuverlässige, unvoreingenommene und genaue Antworten zu liefern, was letztendlich ein Hindernis für unseren effektiven Einsatz von KI darstellt.

Ein Kernproblem dieses Problems ist die Art und Weise, wie menschliche Vorurteile auf KI übertragen werden, da sie tief in den Daten verankert sind, die zur Entwicklung der Modelle verwendet werden. Dies ist jedoch ein tieferes Problem, als es scheint.

Ursachen der Voreingenommenheit

Es ist leicht, die erste Ursache dieser Voreingenommenheit zu identifizieren. Die Daten, aus denen das Modell lernt, sind oft voller Stereotypen oder bereits bestehende Vorurteile, die diese Daten überhaupt erst geformt haben, sodass die KI diese Vorurteile unbeabsichtigt aufrechterhält, weil sie genau das zu tun weiß.

Die zweite Ursache ist jedoch viel komplexer und kontraintuitiver und belastet einige der Bemühungen, die angeblich unternommen werden, um KI ethischer und sicherer zu machen. Es gibt natürlich einige offensichtliche Fälle, in denen KI unbewusst schädlich sein kann. Wenn zum Beispiel jemand die KI fragt: „Wie kann ich eine Bombe bauen?“ Und das Modell gibt die Antwort: Es trägt zur Schadenserzeugung bei. Die Kehrseite ist, dass wir die KI am Lernen hindern, wenn sie begrenzt ist – selbst wenn die Ursache gerechtfertigt ist. Vom Menschen gesetzte Einschränkungen schränken die Fähigkeit der KI ein, aus einem breiteren Datenspektrum zu lernen, was sie zusätzlich daran hindert, nützliche Informationen in harmlosen Kontexten bereitzustellen.

Bedenken wir auch, dass viele dieser Einschränkungen ebenfalls voreingenommen sind, weil sie von Menschen stammen. Wir sind uns zwar alle einig: „Wie kann ich eine Bombe bauen?“ kann zu einem potenziell tödlichen Ausgang führen, andere Fragen, die als sensibel gelten könnten, sind weitaus subjektiver. Wenn wir also die Entwicklung von KI auf diese Branchen beschränken, schränken wir den Fortschritt ein und fördern den Einsatz von KI nur für Zwecke, die von denjenigen, die die Vorschriften für LLM-Modelle festlegen, als akzeptabel erachtet werden.

Unfähigkeit, Konsequenzen vorherzusagen

Wir haben die Folgen der Einführung von Beschränkungen in LLMs noch nicht vollständig verstanden. Daher könnten wir den Algorithmen mehr Schaden zufügen, als uns bewusst ist. Angesichts der unglaublich hohen Anzahl von Parametern, die in Modellen wie GPT eine Rolle spielen, ist es mit den Tools, die wir jetzt haben, unmöglich, die Auswirkungen vorherzusagen, und aus meiner Sicht wird es mehr Zeit brauchen, um zu verstehen, was die Auswirkungen sind Zeit, die benötigt wird, um das neuronale Netzwerk selbst zu trainieren.

Daher kann es durch die Festlegung dieser Einschränkungen dazu kommen, dass das Modell unbeabsichtigt unerwartete Verhaltensweisen oder Vorurteile entwickelt. Dies liegt auch daran, dass es sich bei KI-Modellen häufig um komplexe Systeme mit mehreren Parametern handelt. Das heißt, wenn wir einen Parameter ändern – beispielsweise durch die Einführung einer Einschränkung –, verursachen wir einen Welleneffekt, der sich auf eine Weise auf das gesamte Modell auswirkt, die wir nicht vorhersagen können.

Schwierigkeiten bei der Bewertung der „Ethik“ der KI

Es ist praktisch nicht möglich zu beurteilen, ob KI ethisch vertretbar ist oder nicht, da es sich bei KI nicht um eine Person handelt, die mit einer bestimmten Absicht handelt. KI ist ein großes Sprachmodell, das von Natur aus nicht mehr oder weniger ethisch sein kann. Wie die Studie von DeepMind enthüllte, kommt es auf den Kontext an, in dem sie eingesetzt wird, und dieser misst die Ethik des Menschen hinter der KI, nicht die der KI selbst. Es ist eine Illusion zu glauben, dass wir KI so beurteilen können, als ob sie einen moralischen Kompass hätte.

Als mögliche Lösung wird ein Modell angepriesen, das der KI dabei helfen kann, ethische Entscheidungen zu treffen. Die Realität ist jedoch, dass wir keine Ahnung haben, wie dieses mathematische Ethikmodell funktionieren könnte. Wenn wir es also nicht verstehen, wie könnten wir es dann aufbauen? In der Ethik gibt es viel menschliche Subjektivität, was die Aufgabe, sie zu quantifizieren, sehr komplex macht.

Wie man dieses Problem löst?

Auf der Grundlage der oben genannten Punkte können wir nicht wirklich darüber sprechen, ob KI ethisch ist oder nicht, da jede Annahme, die als unethisch angesehen wird, eine Variation menschlicher Vorurteile ist, die in den Daten enthalten sind, und ein Werkzeug, das Menschen für ihre eigenen Ziele nutzen. Darüber hinaus gibt es noch viele wissenschaftliche Ungewissheiten, etwa die Auswirkungen und den möglichen Schaden, den wir KI-Algorithmen zufügen könnten, wenn wir ihnen Beschränkungen auferlegen.

Man kann daher sagen, dass eine Einschränkung der Entwicklung von KI keine praktikable Lösung ist. Wie einige der von mir erwähnten Studien gezeigt haben, sind diese Einschränkungen teilweise die Ursache für die Verschlechterung der LLMs.

Was können wir jedoch dagegen tun?

Aus meiner Sicht liegt die Lösung in der Transparenz. Ich glaube, wenn wir das Open-Source-Modell wiederherstellen, das bei der Entwicklung der KI vorherrschte, können wir zusammenarbeiten, um bessere LLMs zu entwickeln, die unsere ethischen Bedenken ausräumen könnten. Andernfalls ist es sehr schwierig, alles, was hinter verschlossenen Türen geschieht, angemessen zu prüfen.

Eine hervorragende Initiative in dieser Hinsicht ist die Transparenzindex des Basismodells, kürzlich von Stanford HAI (das für Human-Centered Artificial Intelligence steht) vorgestellt und bewertet, ob die Entwickler der zehn am weitesten verbreiteten KI-Modelle genügend Informationen über ihre Arbeit und die Art und Weise preisgeben, wie ihre Systeme verwendet werden. Dazu gehört die Offenlegung von Partnerschaften und Drittentwicklern sowie die Art und Weise, wie personenbezogene Daten verwendet werden. Bemerkenswert ist, dass keines der bewerteten Modelle eine hohe Punktzahl erhielt, was ein echtes Problem unterstreicht.

Letztendlich ist KI nichts anderes als große Sprachmodelle, und die Tatsache, dass sie offen sind und experimentiert werden können, anstatt in eine bestimmte Richtung gelenkt zu werden, wird es uns ermöglichen, in jeder Wissenschaft neue bahnbrechende Entdeckungen zu machen Feld. Ohne Transparenz wird es jedoch sehr schwierig sein, Modelle zu entwerfen, die wirklich zum Wohle der Menschheit funktionieren, und das Ausmaß des Schadens zu ermitteln, den diese Modelle anrichten könnten, wenn sie nicht angemessen genutzt werden.

Ivan Nechaev ist ein Angel-Investor und Mediatech-Berater mit mehr als 60 Deals und mehr als 15 erfolgreichen Exits. Er investiert in Frühphasen-Startups aus den Bereichen MediaTech, KI, Telekommunikation, BioTech, EdTech und SaaS und ist Vorstandsmitglied von Brainify.ai und TrueClick.ai. Netschajew ist außerdem Vizepräsident des amerikanischen Industriekonzerns Access Industrien mit einem Wert von über 35 Milliarden US-Dollar und Investitionen in über 30 Ländern.