Künstliche Intelligenz
Forschungsteam will erklärbare KI für nukleare Nichtverbreitung und nukleare Sicherheit entwickeln

Forscher des Pacific Northwest National Laboratory (PNNL) versuchen, KI für die Zwecke der nuklearen Nichtverbreitung und der nationalen Sicherheit erklärbar zu machen. Ziel ist es, die von KI-Modellen zurückgegebenen Entscheidungen für jede Entscheidung, die die nukleare Sicherheit betrifft, transparent zu machen.
Der Bedeutung erklärbarer KI-Modelle wird mehr denn je Aufmerksamkeit geschenkt, um das „Black-Box“-Problem des maschinellen Lernens zu lösen. KI-Modellen wird oft vertraut, dass sie komplexe Entscheidungen treffen, selbst wenn diejenigen, die für die Ausführung dieser Entscheidungen verantwortlich sind, die Gründe für diese Entscheidungen nicht verstehen. Je höher das Katastrophen- und Gefahrenpotenzial dieser Entscheidungen ist, desto wichtiger ist es, dass die Gründe für diese Entscheidungen transparent sind.
Es ist möglicherweise nicht notwendig, die Gründe für Klassifizierungen zu verstehen, wenn eine KI-Anwendung etwas so Einfaches wie die Kategorisierung von Bildern von Früchten durchführt. In Fällen, in denen es um Kernwaffen oder die Herstellung von Kernmaterial geht, ist es jedoch besser, die Blackbox zu öffnen, die der dabei eingesetzten KI zugrunde liegt Szenarien.
PNNL-Wissenschaftler arbeiten daran, KI mithilfe verschiedener neuer Techniken erklärbar zu machen. Diese Forscher arbeiten mit dem Office of Defense Nuclear Nonproliferation Research and Development (DNN R&D) der National Nuclear Security Administration (NNSA) des Energieministeriums zusammen. Das DNN R&D ist für die Aufsicht über die Fähigkeit der Vereinigten Staaten verantwortlich, die Produktion von Kernmaterial, die Entwicklung von Kernwaffen und die Detonation von Kernwaffen rund um den Globus zu überwachen und aufzuspüren.
Angesichts der hohen Risiken bei Fragen im Zusammenhang mit der Nichtverbreitung von Kernwaffen ist es wichtig zu wissen, wie ein KI-System zu seinen Schlussfolgerungen zu diesen Fragen gelangt. Angie Sheffield ist Senior Program Manager bei DNN R&D. Laut Sheffield kann es oft schwierig sein, neue Technologien wie KI-Modelle in traditionelle wissenschaftliche Techniken und Frameworks zu integrieren, aber der Prozess der Integration von KI in diese Systeme kann durch die Entwicklung neuer Wege für eine effektivere Interaktion mit diesen Systemen erleichtert werden. Sheffield argumentiert, dass Forscher Werkzeuge entwickeln sollten, die es Entwicklern ermöglichen, zu verstehen, wie diese hochentwickelten Techniken funktionieren.
Aufgrund der relativen Knappheit an Daten zu nuklearen Explosionen und der Entwicklung von Atomwaffen ist erklärbare KI umso wichtiger. Das Training von KI-Modellen in diesem Bereich führt zu Modellen, die möglicherweise weniger zuverlässig sind, da im Vergleich zu einer Aufgabe wie der Gesichtserkennung relativ wenig Daten vorhanden sind. Daher muss jeder Schritt des Prozesses, den das Modell zur Entscheidungsfindung verwendet, überprüfbar sein.
Mark Greaves, ein Forscher am PNNL, erklärte, dass die mit der nuklearen Verbreitung verbundenen Risiken ein System erfordern, das die Menschen darüber informieren kann, warum eine bestimmte Antwort ausgewählt wurde.
Wie Greaves über EurekaAlert erklärte:
Wenn ein KI-System eine falsche Wahrscheinlichkeit für den Besitz von Atomwaffen durch ein Land ermittelt, ist das ein Problem ganz anderer Größenordnung. Unser System muss daher zumindest Erklärungen liefern, damit Menschen seine Schlussfolgerungen überprüfen und ihre eigene Expertise nutzen können, um durch die Datenknappheit entstandene Lücken im KI-Training zu schließen.
Wie Sheffield erklärt, verfügt PNNL über zwei Stärken, die ihnen bei der Lösung dieses Problems helfen werden. Erstens verfügt PNNL über umfangreiche Erfahrung im KI-Bereich. Darüber hinaus verfügt das Team über umfassende Fachkenntnisse im Bereich Nuklearmaterial und -waffen. Das PNNL-Team versteht Themen wie die Verarbeitung von Plutonium und die Arten von Signalen, die für die Entwicklung von Atomwaffen spezifisch sind. Die Kombination aus KI-Erfahrung, nationaler Sicherheitserfahrung und Kenntnissen im Nuklearbereich bedeutet, dass PNNL in einzigartiger Weise für die Behandlung von Fragen der nuklearen nationalen Sicherheit und KI geeignet ist.












