Künstliche Intelligenz
Forschungsteam zielt darauf ab, erklärbares KI für nukleare Nichtverbreitung und nukleare Sicherheit zu schaffen

Forscher des Pacific Northwest National Laboratory (PNNL) versuchen, KI für die Zwecke der nuklearen Nichtverbreitung und der nationalen Sicherheit erklärbar zu machen. Das Ziel ist es, die Entscheidungen, die von KI-Modellen zurückgegeben werden, für jede Entscheidung im Bereich der nuklearen Sicherheit transparent zu machen.
Mehr Aufmerksamkeit als je zuvor wird der Bedeutung von erklärbarer KI-Modellen geschenkt, um das “Black-Box”-Problem des maschinellen Lernens zu lösen. KI-Modelle werden oft vertraut, um komplexe Entscheidungen zu treffen, auch wenn diejenigen, die für die Ausführung dieser Entscheidungen verantwortlich sind, die Begründung hinter diesen Entscheidungen nicht verstehen. Je höher das Potenzial für Katastrophen und Gefahren ist, desto wichtiger ist es, dass die Begründung hinter diesen Entscheidungen transparent ist.
Es mag nicht notwendig sein, die Begründung hinter Klassifizierungen zu verstehen, wenn eine KI-Anwendung etwas so Einfaches wie das Kategorisieren von Obstbildern tut, aber in Fällen, die nukleare Waffen oder die Produktion von nuklearem Material betreffen, ist es besser, die Black-Box-Struktur der in diesen Szenarien eingesetzten KI zu öffnen.
Die Wissenschaftler des PNNL arbeiten daran, KI mithilfe einer Vielzahl neuer Techniken erklärbar zu machen. Diese Forscher arbeiten gemeinsam mit dem Office of Defense Nuclear Nonproliferation Research and Development (DNN R&D) der National Nuclear Security Administration (NNSA) des Department of Energy. Die DNN R&D ist für die Überwachung der Fähigkeit der Vereinigten Staaten verantwortlich, die Produktion von nuklearem Material, die Entwicklung von nuklearen Waffen und die Zündung von nuklearen Waffen auf der ganzen Welt zu überwachen.
Angesichts der hohen Risiken, die mit Fragen im Zusammenhang mit nuklearen Nichtverbreitung verbunden sind, ist es kritisch wichtig zu wissen, wie ein KI-System zu seinen Schlussfolgerungen über diese Fragen gelangt. Angie Sheffield ist eine Senior-Programm-Managerin bei DNN R&D. Laut Sheffield kann es oft schwierig sein, neue Technologien wie KI-Modelle in traditionelle wissenschaftliche Techniken und Rahmenbedingungen zu integrieren, aber der Prozess der Integration von KI in diese Systeme kann durch die Entwicklung neuer Wege der Interaktion mit diesen Systemen erleichtert werden. Sheffield argumentiert, dass Forscher Werkzeuge schaffen sollten, die es Entwicklern ermöglichen, zu verstehen, wie diese komplexen Techniken funktionieren.
Die relative Knappheit von Daten über nukleare Explosionen und die Entwicklung von nuklearen Waffen bedeutet, dass erklärbares KI noch wichtiger ist. Die Schulung von KI-Modellen in diesem Bereich führt zu Modellen, die aufgrund der relativen Knappheit von Daten im Vergleich zu einer Aufgabe wie Gesichtserkennung weniger zuverlässig sein können. Als Ergebnis muss jeder Schritt des Prozesses, den das Modell zur Entscheidungsfindung verwendet, überprüfbar sein.
Mark Greaves, ein Forscher am PNNL, erklärte, dass die Risiken, die mit nuklearer Verbreitung verbunden sind, ein System erfordern, das Menschen über die Gründe für eine bestimmte Antwort informieren kann.
Wie Greaves über EurekaAlert erklärte:
“Wenn ein KI-System eine falsche Wahrscheinlichkeit über die Frage, ob eine Nation über eine nukleare Waffe verfügt, liefert, ist das ein Problem einer ganz anderen Größenordnung. Unser System muss daher zumindest Erklärungen liefern, damit Menschen die Schlussfolgerungen des Systems überprüfen und ihre eigene Expertise nutzen können, um KI-Schulungslücken aufgrund der Knappheit von Daten zu korrigieren.”
Wie Sheffield erklärte, hat das PNNL zwei Stärken, die dazu beitragen werden, dieses Problem zu lösen. Erstens verfügt das PNNL über umfangreiche Erfahrung im Bereich KI. Zweitens verfügt das Team über umfangreiche Kenntnisse im Bereich nukleare Materialien und Waffen. Das PNNL-Team versteht Fragen wie die Verarbeitung von Plutonium und die Arten von Signalen, die für die Entwicklung von nuklearen Waffen einzigartig sind. Die Kombination von KI-Erfahrung, Erfahrung im Bereich der nationalen Sicherheit und Kenntnissen im Bereich nukleare Materialien bedeutet, dass das PNNL einzigartig geeignet ist, um Fragen der nuklearen nationalen Sicherheit und KI zu behandeln.












