Vordenker
Warum Industrie 5.0 künstliche allgemeine Intelligenz benötigt

Von: Bas Steunebrink, Mitgründer und Direktor der künstlichen allgemeinen Intelligenz, Eric Nivel, Leitender AGI-Ingenieur und Jerry Swan, Forschungswissenschaftler bei NNAISENSE.
Wir nehmen Automatisierung in unserer modernen Welt als selbstverständlich hin und profitieren täglich von Lieferketten, die den Globus umspannen und eine enorme Auswahl an Waren auf unsere Regale liefern. Doch hinter den Kulissen erzeugen die Produktion und der Transport von Waren viele Optimierungsprobleme, wie z.B. Verpackung, Terminplanung, Routenplanung und Automatisierung von Fließbändern. Diese Optimierungsprobleme sind dynamisch und ändern sich ständig im Einklang mit der realen Welt. Zum Beispiel können erwartete Lieferwege plötzlich aufgrund unvorhergesehener Umstände beeinträchtigt werden – beispielsweise kann der Suez-Kanal blockiert sein; Flugrouten können sich aufgrund von Vulkanausbrüchen ändern; ganze Länder können aufgrund von Konflikten unzugänglich sein. Änderungen in der Gesetzgebung, Währungskollaps und knappe Ressourcen sind auch Beispiele für Liefervariablen, die ständig in Fluss sind.
Um ein weiteres Beispiel zu geben, muss manchmal ein neues Komponenten in eine Maschine oder einen Arbeitsablauf integriert werden (Benutzer möchten beispielsweise unterschiedliche Materialien oder Farben). Derzeit ist Fachpersonal erforderlich, um Änderungen am System vorzunehmen oder – im Falle des maschinellen Lernens – zusätzlich das System neu zu trainieren und bereitzustellen. In ähnlicher Weise sind die “digitalen Zwillinge” von Industrie 4.0 noch immer stark von der Vorstellung abhängig, dass die Problembeschreibung und die Verteilung der Eingaben einmalig bei der anfänglichen Systementwicklung spezifiziert werden können.
Die jüngste Pandemie unterstreicht die Fragilität der “Just-in-Time”-Lieferkettenplanung. Es wird deutlicher, dass die Industrie in einer zunehmend komplexen und unsicheren Welt nicht länger diese Inflexibilität hinnehmen kann. Derzeit muss die Fertigung eine feste Wahl zwischen “Low-Mix High-Volume” (LMHV) und “High-Mix Low-Volume” (HMLV) treffen. Industrie 5.0 erwartet die Aussicht auf “High-Mix High-Volume” (HMHV), bei dem der Arbeitsablauf zu geringen Kosten so umkonfiguriert werden kann, dass er flüssige Anforderungen erfüllt. Um dies zu erreichen, ist es erforderlich, die “Automatisierung der Automatisierung” zu ermöglichen, um den Bedarf an menschlicher Intervention und/oder Systemausfallzeit zu eliminieren, wenn sich das Problem oder die Umgebung ändert. Dies erfordert Systeme, die “auf Befehl” arbeiten, auf solche Änderungen reagieren und dennoch eine vernünftige Aussicht darauf haben, ihre zugewiesenen Aufgaben innerhalb realer Zeitbegrenzungen abzuschließen. Betrachten Sie beispielsweise, wie ein Fließbandroboter, der derzeit mit der Aufgabe X beschäftigt ist, wie folgt angewiesen wird:
“Stoppen Sie sofort mit der Montage von X: Hier ist eine Spezifikation von Y, und hier sind die meisten alten und einige neuen Effektoren. Beginnen Sie jetzt mit der Montage von Y, vermeiden Sie solche und solche Arten von Fehlern und Verschwendung.”
Trotz der weit verbreiteten jüngsten Diskussionen über die bevorstehende Ankunft von “künstlicher allgemeiner Intelligenz” (AGI) durch sogenannte Large Language Models wie GPT-3 ist keiner der vorgeschlagenen Ansätze wirklich in der Lage, “auf Befehl” zu arbeiten. Das bedeutet, dass sie nicht mit etwas komplett außerhalb ihres Trainingssets beauftragt werden können, ohne dass eine Ausfallzeit für Offline-Neutraining, Verifizierung und Bereitstellung erforderlich ist.
Es ist sicherlich klar, dass jede realweltliche Vorstellung von Intelligenz untrennbar mit der Reaktion auf Veränderungen verbunden ist. Ein System, das unverändert bleibt – egal, wie viele unerwartete Ereignisse es ausgesetzt ist – ist weder autonom noch intelligent. Dies soll nicht die unbestrittenen Stärken solcher Deep-Learning-Ansätze (DL) schmälern, die großen Erfolg als Mittel zur Synthese von Programmen für Probleme hatten, die schwer explizit zu spezifizieren sind.
Was für eine Systemfunktionalität könnte es also ermöglichen, dass die KI über das Paradigma des Trainings, Einfrierens und Bereitstellens hinausgeht und zu einem Paradigma kommt, das in der Lage ist, adaptives Lernen ohne Unterbrechung zu ermöglichen? Betrachten Sie die Notwendigkeit, ein defektes Komponenten in einem Fertigungsprozess durch eines von einem anderen Lieferanten zu ersetzen, das möglicherweise unterschiedliche Toleranzen aufweist. Mit der End-to-End-Black-Box-Modellierung der zeitgenössischen KI muss der Prozess der digitalen Zwillingserstellung neu durchgeführt werden. Um die Einschränkungen der zeitgenössischen Ansätze zu überwinden, ist eine radikale Änderung erforderlich: Ein Modell, das direkt über die Folgen einer Komponentenänderung – und tatsächlich allgemeinere kontrafaktische “Was-wäre-wenn”-Szenarien – nachdenken kann. Die Zerlegung eines Arbeitsablaufs in Komponenten mit bekannten Eigenschaften und ihre Neukombination, wenn erforderlich, erfordert das, was als “Komposition” bezeichnet wird.
Die Komposition hat der zeitgenössischen KI bisher entgangen, wo sie oft mit dem schwächeren Begriff der Modularität verwechselt wird. Modularität befasst sich mit der Fähigkeit, Komponenten “zusammenzukleben”, aber dies erfängt nicht die Essenz der Komposition, die die Fähigkeit ist, das Verhalten des resultierenden Arbeitsablaufs zu verstehen, um die Erhaltung einer bestimmten Eigenschaft zu bestimmen und sicherzustellen. Diese Fähigkeit ist aus Gründen der Verifizierung und Sicherheit von entscheidender Bedeutung: beispielsweise die Fähigkeit des Systems, zu erkennen, dass “die Übernahme eines Motors von einem alternativen Hersteller den Gesamtleistungsausstoß der Anlage erhöhen wird, während alle anderen Komponenten innerhalb der Temperaturgrenzen bleiben”.
Obwohl zeitgenössische neuronale Netze Ansätze hervorragend darin sind, Regeln aus Daten zu lernen, fehlt ihnen die kompositionale Argumentation. Anstelle der Hoffnung, dass kompositionale Argumentation aus neuronalen Netzen entsteht, kann man direkt die Konstruktionen der Kategorientheorie, der mathematischen Studie der Komposition, nutzen. Insbesondere ist die Teilgebiet der kategorialen Kybernetik mit bidirektionalen Kontrollern als grundlegende repräsentationale Elemente beschäftigt. Bidirektionalität ist die Fähigkeit, sowohl Vorwärts- als auch Rückwärtsinferenz durchzuführen: Vorhersagen von Ursachen zu Effekten und umgekehrt. Kompositionale Rückwärtsinferenz ist besonders wichtig, da sie die Einbeziehung von Feedback aus der Umgebung auf jeder Skala der Strukturrepräsentation ermöglicht – dies erleichtert das schnelle Lernen aus einer kleinen Anzahl von Beispielen.
Gegeben ein bestimmtes gewünschtes Systemverhalten, ist die Lernaufgabe dann, eine aggregierte Kontrollstruktur zu erstellen, die es erfüllt. Anfänglich gelernte Strukturen dienen als Skelett für nachfolgendes Lernen.
Wenn das Wissen des Systems zunimmt, kann dieses Skelett mit gelernten kompositionalen Eigenschaften dekoriert werden, ähnlich wie ein H2O-Molekül bestimmt werden kann, das unterschiedliche Eigenschaften als seine konstituierenden Atome aufweist. Darüber hinaus können, ähnlich wie “einen Ball werfen” und “eine Tennisrakete schwingen” als verwandte muskuloskelettale Aktionen für einen Menschen angesehen werden, auch verwandte Aufgaben eine skelettale Kontrollstruktur teilen, die auf task-spezifische Weise durch Feedback aus der Umgebung verziert wird. Diese Entkopplung der kausalen Struktur von task-spezifischen Aspekten kann das Lernen neuer Aufgaben ohne das katastrophale Vergessen ermöglichen, das zeitgenössische Ansätze plagt. Daher kann ein hybrider numerisch-symbolischer Ansatz der oben beschriebenen Form die Stärken beider neuronalen und symbolischen Ansätze kombinieren, indem er sowohl eine explizite Vorstellung von Struktur als auch die Fähigkeit besitzt, adaptiv zu lernen, wie Eigenschaften komponiert sind. Die Argumentation über kompositionale Eigenschaften wird durch die Arbeit, die das System derzeit ausführt, auf kontinuierlicher Basis begründet.
Zusammenfassend ist es klar, dass ein neuer Ansatz erforderlich ist, um wirklich autonome Systeme zu schaffen: Systeme, die erhebliche Änderungen aushalten und/oder in unbekannten Umgebungen arbeiten können. Dies erfordert adaptives Lernen ohne Unterbrechung und Verallgemeinerung dessen, was bereits bekannt ist. Trotz ihres Namens haben Deep-Learning-Ansätze nur eine flache Darstellung der Welt, die nicht auf hohem Niveau durch den Lernprozess manipuliert werden kann. Im Gegensatz dazu schlagen wir vor, dass die AGI-Systeme der nächsten Generation Deep Learning in einer umfassenderen Architektur integrieren werden, die mit der Fähigkeit ausgestattet ist, direkt über das zu reflektieren, was sie weiß.
Die Fähigkeit eines Systems, symbolisch über seine eigene Repräsentation nachzudenken, verleiht der Industrie erhebliche Vorteile: Mit einer explizit kompositionalen Repräsentation kann das System von Menschen oder intern durch das System selbst überprüft werden, um wichtige Anforderungen an Sicherheit und Fairness zu erfüllen. Während es in der Wissenschaft viel Bedenken hinsichtlich des sogenannten x-Risikos von AGI gibt, liegt der angemessene Fokus vielmehr auf dem konkreten Ingenieurproblem der Neuprogrammierung eines Steuersystems unter Beibehaltung dieser wichtigen Anforderungen, ein Prozess, den wir als interaktive Ausrichtung bezeichnen. Es ist nur durch die Einführung solcher Steuersysteme, die vertrauenswürdig und effizient kontinuierlich lernen, dass wir die nächste Generation von Autonomie verwirklichen können, die von Industrie 5.0 vorgesehen ist.






