stub Technika umożliwia AI myślenie daleko w przyszłość - Unite.AI
Kontakt z nami

Artificial Intelligence

Technika umożliwia sztucznej inteligencji myślenie daleko w przyszłość

Zaktualizowano on

Zespół badaczy z MIT, MIT-IBM Watson AI Lab i innych instytucji opracował nowe podejście, które umożliwia agentom sztucznej inteligencji (AI) osiągnięcie dalekowzrocznej perspektywy. Innymi słowy, sztuczna inteligencja może wybiegać daleko w przyszłość, rozważając, w jaki sposób jej zachowania mogą obejmować zachowania innych agentów sztucznej inteligencji podczas wykonywania zadania. 

Połączenia Badania naukowe ma zostać zaprezentowany na Konferencja nt. Neuronowych systemów przetwarzania informacji.

Sztuczna inteligencja rozważa przyszłe działania innych agentów

Stworzona przez zespół platforma uczenia maszynowego umożliwia współpracującym lub konkurencyjnym agentom AI rozważenie, co zrobią inni agenci. Nie dotyczy to tylko kolejnych kroków, ale raczej czasu zbliżającego się do nieskończoności. Agenci odpowiednio dostosowują swoje zachowania, aby wpłynąć na przyszłe zachowania innych agentów, pomagając im w znalezieniu optymalnych, długoterminowych rozwiązań. 

Według zespołu platforma mogłaby zostać wykorzystana na przykład przez grupę autonomicznych dronów współpracujących w celu odnalezienia zagubionego turysty. Można by go również wykorzystać w pojazdach autonomicznych do przewidywania przyszłych ruchów innych pojazdów w celu poprawy bezpieczeństwa pasażerów.

Dong-Ki Kim jest absolwentem Laboratorium Systemów Informacji i Decyzji (LIDS) MIT i głównym autorem artykułu badawczego. 

„Kiedy agenci sztucznej inteligencji współpracują lub konkurują, najważniejsze jest to, czy w pewnym momencie w przyszłości ich zachowania zbiegną się” – mówi Kim. „Po drodze pojawia się wiele przejściowych zachowań, które na dłuższą metę nie mają większego znaczenia. Naprawdę nam zależy na osiągnięciu takiego zbieżnego zachowania i teraz mamy matematyczny sposób, aby to umożliwić”.

Problem, którym zajmują się naukowcy, nazywa się wieloagentowym uczeniem się przez wzmacnianie, przy czym uczenie się przez wzmacnianie jest formą uczenia maszynowego, w ramach której agenci sztucznej inteligencji uczą się metodą prób i błędów. 

Kiedy jednocześnie uczy się wielu współpracujących lub konkurujących ze sobą agentów, proces może stać się znacznie bardziej złożony. Ponieważ agenci rozważają więcej przyszłych kroków innych agentów, a także własne zachowanie i jego wpływ na innych, problem wymaga zbyt dużej mocy obliczeniowej. 

RoboSumo: DALEJ kontra LILI

AI myśli o nieskończoności

„Sztuczna inteligencja naprawdę chce pomyśleć o zakończeniu gry, ale nie wie, kiedy gra się zakończy” – mówi Kim. „Muszą myśleć o tym, jak dostosowywać swoje zachowanie w nieskończoność, aby móc wygrać w odległej przyszłości. W naszym artykule zasadniczo proponujemy nowy cel, który umożliwi sztucznej inteligencji myślenie o nieskończoności”. 

Nie da się zintegrować nieskończoności z algorytmem, dlatego zespół zaprojektował system w taki sposób, aby agenci skupiali się na przyszłym punkcie, w którym ich zachowanie będzie zbieżne z zachowaniem innych agentów. Nazywa się to równowagą, a punkt równowagi określa długoterminowe działanie środków. 

W scenariuszu wieloagentowym może istnieć wiele równowag, a gdy skuteczny agent aktywnie wpływa na przyszłe zachowania innych agentów, mogą oni osiągnąć pożądaną równowagę z punktu widzenia agenta. Kiedy wszystkie czynniki wpływają na siebie nawzajem, zbiegają się one w jedną ogólną koncepcję nazywaną „aktywną równowagą”. 

DALEJ Ramy

Opracowana przez zespół platforma uczenia maszynowego nosi nazwę FURTHER i umożliwia agentom nauczenie się, jak dostosowywać swoje zachowania w oparciu o interakcje z innymi agentami, aby osiągnąć aktywną równowagę. 

Framework opiera się na dwóch modułach uczenia maszynowego. Pierwszy to moduł wnioskowania, który umożliwia agentowi odgadnięcie przyszłych zachowań innych agentów oraz algorytmów uczenia się, których używają, na podstawie wcześniejszych działań. Informacje są następnie wprowadzane do modułu uczenia się przez wzmacnianie, na którym agent dostosowuje swoje zachowanie i wpływa na innych agentów. 

„Wyzwaniem było myślenie o nieskończoności. Aby to umożliwić, musieliśmy użyć wielu różnych narzędzi matematycznych i przyjąć pewne założenia, aby zastosować to w praktyce” – mówi Kim. 

Zespół przetestował swoją metodę w porównaniu z innymi platformami wieloagentowego uczenia się przez wzmacnianie w różnych scenariuszach, w których agenci AI korzystający z FURTHER okazali się lepsi. 

Podejście jest zdecentralizowane, więc agenci uczą się wygrywać niezależnie. Co więcej, jest lepiej skalowalny w porównaniu z innymi metodami, które wymagają centralnego komputera do kontrolowania agentów. 

Według zespołu rozwiązanie FURTHER można zastosować w przypadku szerokiego zakresu problemów wieloagentowych. Kim pokłada szczególne nadzieje w zastosowaniach w ekonomii, gdzie można by je zastosować do opracowania rozsądnej polityki w sytuacjach obejmujących wiele oddziałujących na siebie podmiotów, których zachowania i interesy zmieniają się w czasie. 

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.