Liderzy opinii
Dlaczego Przemysł 5.0 potrzebuje Sztucznej Inteligencji Ogólnej

Przez: Bas Steunebrink, współzałożyciel i dyrektor Sztucznej Inteligencji Ogólnej, Eric Nivel, główny inżynier AGI oraz Jerry Swan, naukowiec badawczy w NNAISENSE.
Lecz za kulisami produkcja i przemieszczanie towarów generują wiele wyzwań optymalizacyjnych, takich jak pakowanie, planowanie, trasowanie i automatyzacja linii montażowych. Te wyzwania optymalizacyjne są dynamiczne i stale zmieniają się wraz ze światem rzeczywistym. Na przykład oczekiwane trasy dostaw mogą nagle zostać naruszone z powodu nieprzewidzianych okoliczności – na przykład Kanał Sueski może być zablokowany; trasy lotnicze mogą ulec zmianie z powodu erupcji wulkanicznych; całe kraje mogą być niedostępne z powodu konfliktu. Zmiany w legislacji, upadłość waluty i rzadkie zasoby są również przykładami zmiennych po stronie podaży, które ciągle się zmieniają.
Aby podać kolejny przykład, czasami konieczne jest wprowadzenie nowego komponentu do maszyny lub procesu roboczego (użytkownicy mogą chcieć różnych materiałów lub kolorów, na przykład). Obecnie wymagana jest specjalistyczna praca ludzka, aby wprowadzić zmiany w systemie, lub – w przypadku uczenia maszynowego – dodatkowo przeszkolić i ponownie wdrożyć rozwiązanie. W podobny sposób „cyfrowe bliźniaki” Przemysłu 4.0 nadal silnie zależą od założenia, że opis problemu i dystrybucja danych wejściowych mogą być określone raz na zawsze w momencie początkowego projektowania systemu.
Niedawna pandemia podkreśla kruchność „just-in-time” planowania łańcucha dostaw. Staje się coraz bardziej oczywiste, że w coraz bardziej złożonym i niepewnym świecie, przemysł nie może już dłużej pozwolić sobie na taką inflexibility. Obecnie produkcja musi dokonać wyboru między „niską mieszanką a wysokim wolumenem” (LMHV) a „wysoką mieszanką a niskim wolumenem” (HMLV). Przemysł 5.0 przewiduje perspektywę „wysokiej mieszanki a wysokiego wolumenu” (HMHV), w którym przepływ pracy może być ponownie skonfigurowany przy niskich kosztach, aby spełnić płynne wymagania. Aby to osiągnąć, konieczne jest „zautomatyzowanie automatyzacji”, aby wyeliminować potrzebę interwencji ludzkiej i/lub przestoju systemu, gdy problem lub środowisko ulega zmianie. Wymaga to systemów, które „pracują na polecenie”, reagując na takie zmiany, przy jednoczesnym zachowaniu rozsądnego szansy na wykonanie powierzonych zadań w ramach czasowych ograniczeń świata rzeczywistego. Rozważmy, na przykład, polecenie robota montażowego, obecnie zajętego zadaniem X, w następujący sposób:
„Przestań montować X natychmiast: oto specyfikacja Y, oraz większość Twoich starych i kilka nowych efektów. Teraz zacznij montować Y, unikając takich i takich wad i marnotrawstwa.”
Pomimo powszechnych niedawnych rozmów o rychłym nadejściu „Sztucznej Inteligencji Ogólnej” (AGI) za pośrednictwem tzw. Dużych Modeli Językowych, takich jak GPT-3, żaden z proponowanych podejść nie jest naprawdę zdolny do „pracy na polecenie”. To znaczy, nie mogą być powierzone zadania całkowicie poza ich zestawem szkoleniowym bez przestoju offline szkolenia, weryfikacji i ponownego wdrożenia.
Jasne jest, że każda rzeczywista koncepcja inteligencji jest nierozerwalnie związana z reakcją na zmiany. System, który pozostaje niezmieniony – niezależnie od ilu nieoczekiwanych zdarzeń, na które jest narażony – nie jest ani autonomiczny, ani inteligentny. Nie zmniejsza to niewątpliwych zalet takich podejść głębokiego uczenia (DL), które odniosły wielki sukces jako środek syntezowania programów dla problemów, które są trudne do jawnej specyfikacji.
Co za rodzaj funkcjonalności systemu mógłby umożliwić sztucznej inteligencji, aby wykroczyć poza ten paradygmat szkolenia, zamrożenia i wdrożenia, w kierunku tego, który jest w stanie nieprzerwanego adaptacyjnego uczenia? Rozważmy potrzebę zastąpienia wadliwego komponentu w procesie produkcyjnym komponentem od innego dostawcy, który mógłby mieć różne tolerancje. Z modelem end-to-end black box współczesnej sztucznej inteligencji, proces cyfrowego bliźniactwa musi być wykonany na nowo. Aby rozwiązać ograniczenia współczesnych podejść, wymagana jest radykalna zmiana: model, który może bezpośrednio rozważać konsekwencje zmiany komponentu – oraz bardziej ogólne kontrfaktualne „co, gdyby” scenariusze. Rozkład procesu roboczego na komponenty o znanych właściwościach i ponowne łączenie ich w razie potrzeby wymaga tego, co nazywa się „kompozycyjnością”.
Kompozycyjność do tej pory umknęła współczesnej sztucznej inteligencji, gdzie często mylona jest z słabszym pojęciem modułowości. Modułowość dotyczy możliwości „sklejenia” komponentów, ale to nie ujmuje istoty kompozycyjności, która jest zdolnością do rozważania zachowania wynikającego procesu roboczego, aby określić i zapewnić zachowanie pożądanej właściwości. Ta zdolność jest niezwykle ważna z powodów weryfikacji i bezpieczeństwa: na przykład, zdolność systemu do rozważania, że „przyjęcie silnika od alternatywnego producenta zwiększy ogólny wydatek mocy zakładu, podczas gdy wszystkie jego komponenty pozostają w granicach temperatury”.
Chociaż współczesne podejścia sieci neuronowych wyróżniają się w nauce reguł z danych, brakuje im kompozycyjnego rozważania. Zamiast liczyć na to, że kompozycyjne rozważanie wyłoni się z architektur sieci neuronowych, można bezpośrednio wykorzystać konstrukcje teorii kategorii, matematycznego studium kompozycyjności. W szczególności, jej subdyscyplina – kategorialna cybernetyka zajmuje się bidirectionalnymi kontrolerami jako podstawowymi elementami reprezentacyjnymi. Bidirekcjonalność to zdolność do wykonywania obu inferencji w przód i wstecz: przewidywania od przyczyn do skutków i odwrotnie. Kompozycyjna inferencja wsteczna jest szczególnie ważna, ponieważ umożliwia włączenie informacji zwrotnej ze środowiska na dowolnej skali reprezentacji strukturalnej – ułatwia to szybkie uczenie się z niewielkiej liczby przykładów.
Uwzględniając pewne pożądane zachowanie systemu, zadanie uczenia się polega na zbudowaniu agregatowej struktury kontrolnej, która spełnia je. Początkowo nauczone struktury służą jako szkielet dla następnego uczenia się.
Gdy wiedza systemu rośnie, ten szkielet może być udekorowany nauczonymi kompozycyjnymi właściwościami, podobnie jak cząsteczka H2O może być określona jako mająca różne właściwości niż te, które składają się na jej atomy. Ponadto, tak jak „rzucanie piłką” i „prowadzenie rakietki tenisowej” mogą być postrzegane jako powiązane czynności mięśniowo-szkieletowe dla człowieka, tak również powiązane zadania mogą dzielić szkieletową strukturę kontrolną, która jest ozdobiona w sposób specyficzny dla zadania za pomocą informacji zwrotnej ze środowiska. To odłączenie struktury przyczynowej od specyfikacji zadania może ułatwić uczenie nowych zadań bez katastrofalnego zapominania, które dotyka współczesne podejścia. Stąd, hybrydowe podejście numeryczno-symbole, o którym mowa powyżej, może połączyć zalety podejść neuronowych i symbolicznych, posiadając zarówno jawne pojęcie struktury, jak i zdolność do adaptacyjnego uczenia się, w jaki sposób właściwości są komponowane. Rozważanie kompozycyjnych właściwości jest ugruntowane na bieżąco przez pracę, którą system jest obecnie polecany do wykonania.
Podsumowując, jest jasne, że nowe podejście jest wymagane do stworzenia prawdziwie autonomicznych systemów: systemów zdolnych do dostosowania się do znacznych zmian i/lub działania w nieznanych środowiskach. Wymaga to nieprzerwanego adaptacyjnego uczenia się i uogólniania z tego, co już jest znane. Pomimo swojej nazwy, podejścia głębokiego uczenia mają tylko płytką reprezentację świata, która nie może być manipulowana na wysokim poziomie przez proces uczenia się. W przeciwieństwie do tego, proponujemy, że systemy AGI, które pojawią się w następnej generacji, będą zawierać głębokie uczenie w ramach szerszej architektury, wyposażonej w zdolność do bezpośredniego rozważania tego, co wie.
Zdolność systemu do symbolicznego rozważania własnej reprezentacji zapewnia znaczne korzyści dla przemysłu: z jawnej kompozycyjnej reprezentacją, system może być audytowany – zarówno przez ludzi, jak i wewnętrznie przez system sam – aby spełnić podstawowe wymagania bezpieczeństwa i uczciwości. Chociaż było wiele akademickich obaw o tzw. x-risk AGI, odpowiednie skupienie jest raczej konkretny problem inżynieryjny ponownego zadawania systemu kontrolnego, przy zachowaniu tych podstawowych wymagań, proces, który nazywamy interaktywnym wyrównaniem. To tylko poprzez przyjęcie tego rodzaju systemów kontrolnych, które są godne zaufania i wydajnymi ciągłymi uczącymi się, będziemy mogli zrealizować następną generację autonomii wyobrażoną przez Przemysł 5.0.






