Regulierung
Tech-Beirat drängt auf Begrenzungen für den Einsatz von künstlicher Intelligenz im Pentagon

Das Pentagon hat seine Absicht, stark in künstliche Intelligenz zu investieren, deutlich gemacht und erklärt, dass künstliche Intelligenz die US-Streitkräfte stärker und widerstandsfähiger gegen mögliche nationale Sicherheitsbedrohungen machen wird. Wie Engadget berichtet, hat der Verteidigungsinnovationsbeirat am vergangenen Donnerstag eine Reihe von vorgeschlagenen ethischen Richtlinien für den Einsatz von künstlicher Intelligenz in den Streitkräften vorgeschlagen. Die Liste der Vorschläge umfasst Strategien, um ungewollte Vorurteile zu vermeiden und kontrollierbare künstliche Intelligenz mit Notausschaltverfahren zu schaffen, die verhindern, dass die künstliche Intelligenz unnötigen Schaden anrichtet.
Wired berichtet, dass der Verteidigungsinnovationsbeirat von der Obama-Regierung gegründet wurde, um das Pentagon bei der Akquise von Erfahrungen und Talenten aus der Technologiebranche zu unterstützen. Der Beirat wird derzeit von dem ehemaligen CEO von Google, Eric Schmidt, geleitet. Das Ministerium wurde kürzlich beauftragt, Richtlinien für die ethische Umsetzung von künstlicher Intelligenz in militärischen Projekten zu erstellen. Am Donnerstag hat der Beirat seine Richtlinien und Empfehlungen zur Überprüfung vorgelegt. Der Bericht betont, dass es an der Zeit ist, ernsthafte Diskussionen über den Einsatz von künstlicher Intelligenz in einem militärischen Kontext zu führen, bevor ein ernstes Zwischenfall erfordert, dass dies geschehen muss.
Laut Artificial Intelligence News hat ein ehemaliger Militäroffizier kürzlich erklärt, dass das Pentagon bei der Nutzung von künstlicher Intelligenz zurückliegt. Das Pentagon strebt danach, diese Lücke zu schließen, und hat die Entwicklung und Ausweitung von künstlicher Intelligenz in den Streitkräften zu einer nationalen Priorität erklärt. Ethiker der künstlichen Intelligenz befürchten, dass das Pentagon in seiner Eile, zu einem Leader in der künstlichen Intelligenz zu werden, künstliche Intelligenz-Systeme auf unethische Weise einsetzen könnte. Während verschiedene unabhängige Ethikbeiräte der künstlichen Intelligenz ihre eigenen Vorschläge gemacht haben, hat der Verteidigungsinnovationsbeirat mindestens fünf Grundsätze vorgeschlagen, die die Streitkräfte bei der Entwicklung und Umsetzung von künstlichen Intelligenz-Systemen stets beachten sollten.
Der erste Grundsatz, den der Beirat vorschlägt, ist der Grundsatz, dass Menschen immer für die Nutzung, den Einsatz und die Ergebnisse jeder künstlichen Intelligenz-Plattform in einem militärischen Kontext verantwortlich sein sollten. Dies erinnert an eine Richtlinie von 2012, die festlegte, dass Menschen letztendlich Teil des Entscheidungsprozesses sein sollten, wenn tödliche Gewalt eingesetzt werden kann. Es gibt eine Reihe von anderen Grundsätzen auf der Liste, die allgemeine Ratschläge wie die Sicherstellung, dass künstliche Intelligenz-Systeme immer von Ingenieuren entwickelt werden, die ihre Programme verstehen und gründlich dokumentieren. Ein weiterer Grundsatz rät, dass militärische künstliche Intelligenz-Systeme immer auf ihre Zuverlässigkeit getestet werden sollten. Diese Richtlinien scheinen common sense zu sein, aber der Beirat will ihre Wichtigkeit unterstreichen.
Die anderen Grundsätze in der Liste sind mit der Kontrolle von Vorurteilen für künstliche Intelligenz-Algorithmen und der Fähigkeit von künstlicher Intelligenz, zu erkennen, ob ungewollter Schaden verursacht werden kann, und sich automatisch abzuschalten, verbunden. Die Richtlinien legen fest, dass die künstliche Intelligenz sich selbst abschalten und einen menschlichen Bediener einsetzen sollte, wenn unnötiger Schaden entsteht. Der Entwurf der Grundsätze empfiehlt auch, dass die Ausgabe von künstlicher Intelligenz nachvollziehbar sein sollte, damit Analysten sehen können, was zu einer bestimmten Entscheidung der künstlichen Intelligenz geführt hat.
Die Reihe von Empfehlungen, die der Beirat vorgeschlagen hat, unterstreicht zwei verschiedene Ideen. Die Grundsätze spiegeln die Tatsache wider, dass künstliche Intelligenz integraler Bestandteil der Zukunft militärischer Operationen sein wird, aber dass viel von künstlicher Intelligenz immer noch auf menschliches Management und Entscheidungsfindung angewiesen ist.
Während das Pentagon die Empfehlungen des Beirats nicht annehmen muss, scheint es, als ob das Pentagon die Empfehlungen ernst nimmt. Wie Wired berichtet, erklärte der Direktor des Joint Artificial Intelligence Center, Lieutenant General Jack Shanahan, dass die Empfehlungen des Beirats dem Pentagon helfen würden, “die höchsten ethischen Standards einzuhalten, wie sie in der DoD-AI-Strategie skizziert sind, während sie die starke Geschichte der US-Streitkräfte bei der Anwendung strenger Test- und Feldstandards für technologische Innovationen aufrechterhält”.
Die Technologiebranche als Ganzes bleibt misstrauisch gegenüber der Nutzung von künstlicher Intelligenz bei der Schaffung von militärischer Hardware und Software. Mitarbeiter von Microsoft und Google haben gegen Zusammenarbeiten mit militärischen Einheiten protestiert, und Google hat kürzlich beschlossen, den Vertrag nicht zu verlängern, der sie zur Mitarbeit an Project Maven verpflichtet. Eine Reihe von CEOs, Wissenschaftlern und Ingenieuren haben auch eine Verpflichtung unterzeichnet, “nicht an der Entwicklung, Herstellung, dem Handel oder der Nutzung von tödlichen autonomen Waffen teilzunehmen”. Wenn das Pentagon die Richtlinien, die der Beirat vorgeschlagen hat, annimmt, könnte dies die Technologiebranche eher bereit machen, an Projekten mitzuarbeiten, auch wenn nur die Zeit zeigen wird.












