AGI
Forscher sagen, Menschen könnten superintelligente KI nicht kontrollieren

Jeder, der sich mit künstlicher Intelligenz (KI) auskennt, hat wahrscheinlich irgendeine Version davon gehört, dass sie irgendwann aus der Kontrolle der Menschen geraten wird. Dies ist nicht nur ein Thema aus Sci-Fi-Filmen, sondern eine sehr starke Möglichkeit, die viele Experten in der Branche besorgt. Viele dieser Experten, einschließlich Wissenschaftler, befürworten, dass wir uns auf diese Möglichkeit vorbereiten und sie auf jede mögliche Weise vermeiden sollten.
Jetzt hat ein internationales Team von Forschern diese Idee aufgegriffen und sie mit theoretischen Berechnungen untermauert. Das Team, zu dem Wissenschaftler vom Center for Humans and Machines am Max Planck Institute for Human Development gehörten, verwendete diese Berechnungen, um zu demonstrieren, dass es nicht möglich wäre, eine superintelligente KI zu kontrollieren.
Die Forschung wurde kürzlich in der Journal of Artificial Intelligence Research veröffentlicht.
Superintelligente KI-Systeme
Die Angst vor einem superintelligenten KI-System hat damit zu tun, dass ein solches System weit überlegen wäre als Menschen. Es könnte nicht nur unabhängig lernen, sondern auch auf alle vorhandenen Daten zugreifen und sie extrem schnell verarbeiten.
Ein solches Ereignis könnte dazu führen, dass die superintelligente KI alle vorhandenen Maschinen im Internet übernimmt, und obwohl sie Dinge wie die Heilung von Krankheiten und die Lösung anderer großen Probleme der Menschheit tun könnte, ist das Risiko, dass die Dinge außer Kontrolle geraten, auch hoch.
Manuel Cebrian ist Co-Autor der Studie und Leiter der Digital Mobilization Group am Center for Humans and Machines, Max Planck Institute for Human Development.
“Eine superintelligente Maschine, die die Welt kontrolliert, klingt wie Science-Fiction. Aber es gibt bereits Maschinen, die bestimmte wichtige Aufgaben unabhängig ausführen, ohne dass die Programmierer vollständig verstehen, wie sie es gelernt haben. Die Frage stellt sich daher, ob dies irgendwann unkontrollierbar und gefährlich für die Menschheit werden könnte”, sagt Cebrian.
Kontrolle des Systems
Es gibt zwei große Schulen von Gedanken, wenn es um die Kontrolle eines solchen Systems geht. Erstens könnten Menschen die Fähigkeiten einer superintelligenten KI einschränken, indem sie ihren Zugriff auf bestimmte Datenquellen wie das gesamte Internet beschränken. Das System könnte auch ohne Kontakt mit der Außenwelt funktionieren. Das Problem dabei ist jedoch, dass es das Potenzial der KI drastisch einschränken würde.
Das System würde kontrolliert, indem es nur Ergebnisse verfolgen dürfte, die der Menschheit zugutekommen, und dies könnte durch das Einprogrammieren ethischer Prinzipien erreicht werden.
Die Studie beinhaltete, dass das Team einen theoretischen Eindämmungsalgorithmus entwickelte, der verhindert, dass die superintelligente KI den Menschen unter allen Umständen schadet. Dies kann erreicht werden, indem zunächst eine Simulation des Verhaltens der KI erstellt und jedes Verhalten erkannt wird, das schädlich sein könnte. Trotz dieser vielversprechenden Theorie zeigt die aktuelle Analyse, dass ein solcher Algorithmus nicht entwickelt werden kann.
Iyad Rahwan ist Direktor des Center for Humans and Machines.
“Wenn man das Problem auf grundlegende Regeln aus der theoretischen Informatik herunterbricht, stellt sich heraus, dass ein Algorithmus, der einer KI befiehlt, die Welt nicht zu zerstören, unbeabsichtigt seine eigenen Operationen stoppen könnte. Wenn dies passiert, wüsste man nicht, ob der Eindämmungsalgorithmus noch die Bedrohung analysiert oder ob er gestoppt wurde, um die schädliche KI zu enthalten. Dies macht den Eindämmungsalgorithmus im Grunde unbrauchbar”, sagt Rahwan.
Ein weiteres Problem ist, dass Experten möglicherweise nicht einmal erkennen, wenn eine superintelligente Maschine diesen Zustand erreicht, hauptsächlich aufgrund der Tatsache, dass sie intelligenter wäre als Menschen.












