stub Łączenie kropek: odkrywanie rzekomego modelu Q-Star OpenAI – Unite.AI
Kontakt z nami

Sztuczna inteligencja ogólna

Łączenie kropek: odkrywanie rzekomego modelu Q-Star OpenAI

mm

Opublikowany

 on

Ostatnio w społeczności AI pojawiły się poważne spekulacje na temat rzekomego projektu OpenAI, Q-star. Pomimo ograniczonych informacji na temat tej tajemniczej inicjatywy, uważa się, że stanowi ona znaczący krok w kierunku osiągnięcia sztucznej inteligencji ogólnej — poziomu inteligencji, który dorównuje ludzkim możliwościom lub je przewyższa. Chociaż większość dyskusji skupiała się na potencjalnych negatywnych konsekwencjach tego rozwoju dla ludzkości, stosunkowo niewiele wysiłku poświęcono odkryciu natury Q-star i potencjalnych korzyści technologicznych, jakie może przynieść. W tym artykule zastosuję podejście eksploracyjne, próbując rozwikłać ten projekt przede wszystkim na podstawie jego nazwy, która moim zdaniem dostarcza wystarczających informacji do uzyskania wglądu w jego temat.

Tło tajemnicy

Wszystko zaczęło się od nagłego zarządzenia OpenAI obalił Sama Altmana, dyrektor generalny i współzałożyciel. Chociaż Altman został później przywrócony na stanowisko, nadal pojawiają się pytania dotyczące wydarzeń. Niektórzy postrzegają to jako walkę o władzę, podczas gdy inni przypisują to skupieniu się Altmana na innych przedsięwzięciach, takich jak Worldcoin. Jednak fabuła zagęszcza się, gdy Reuters donosi, że głównym powodem dramatu może być tajny projekt o nazwie Q-star. Według Reuters, Q-Star stanowi istotny krok w kierunku celu AGI OpenAI, co jest przedmiotem zaniepokojenia zgłoszonego radzie nadzorczej przez pracowników OpenAI. Pojawienie się tej wiadomości wywołało falę spekulacji i obaw.

Bloki konstrukcyjne układanki

W tej części przedstawiłem kilka elementów, które pomogą nam rozwikłać tę tajemnicę.

  • P. Nauka: Uczenie się przez wzmocnienie to rodzaj uczenia maszynowego, w którym komputery uczą się poprzez interakcję ze środowiskiem i otrzymywanie informacji zwrotnych w postaci nagród lub kar. Uczenie się Q to specyficzna metoda uczenia się przez wzmacnianie, która pomaga komputerom podejmować decyzje poprzez uczenie się jakości (wartości Q) różnych działań w różnych sytuacjach. Jest szeroko stosowany w scenariuszach takich jak granie w gry i robotyka, umożliwiając komputerom uczenie się optymalnego podejmowania decyzji metodą prób i błędów.
  • Wyszukiwanie gwiazd: A-star to algorytm wyszukiwania, który pomaga komputerom odkrywać możliwości i znajdować najlepsze rozwiązanie problemu. Algorytm jest szczególnie godny uwagi ze względu na skuteczność w znajdowaniu najkrótszej ścieżki od punktu początkowego do celu na wykresie lub siatce. Jego kluczowa siła polega na inteligentnym porównaniu kosztu dotarcia do węzła z szacowanym kosztem osiągnięcia ogólnego celu. W rezultacie A-star jest szeroko stosowany w rozwiązywaniu problemów związanych ze znajdowaniem ścieżki i optymalizacją.
  • AlfaZero: AlfaZero, zaawansowany system AI firmy DeepMind, łączy Q-learning i wyszukiwanie (tj. wyszukiwanie drzewa Monte Carlo) w celu planowania strategicznego w grach planszowych, takich jak szachy i Go. Uczy się optymalnych strategii poprzez samodzielną zabawę, kierując się siecią neuronową do wykonywania ruchów i oceny pozycji. Algorytm wyszukiwania drzew Monte Carlo (MCTS) równoważy eksplorację i eksploatację podczas odkrywania możliwości gry. Iteracyjny proces samodzielnej zabawy, uczenia się i wyszukiwania AlphaZero prowadzi do ciągłego doskonalenia, umożliwiając nadludzkie osiągnięcia i zwycięstwa nad ludzkimi mistrzami, demonstrując jego skuteczność w planowaniu strategicznym i rozwiązywaniu problemów.
  • Modele językowe: Duże modele językowe (LLM), jak GPT-3, to forma sztucznej inteligencji zaprojektowana do rozumienia i generowania tekstu podobnego do ludzkiego. Przechodzą szkolenia dotyczące obszernych i różnorodnych danych internetowych, obejmujące szerokie spektrum tematów i stylów pisania. Wyróżniającą cechą LLM jest ich zdolność do przewidywania następnego słowa w sekwencji, znana jako modelowanie języka. Celem jest przekazanie zrozumienia, w jaki sposób słowa i wyrażenia łączą się ze sobą, umożliwiając modelowi utworzenie spójnego i odpowiedniego kontekstowo tekstu. Obszerne szkolenie sprawia, że ​​studenci LLM są biegli w rozumieniu gramatyki, semantyki, a nawet niuansów użycia języka. Po przeszkoleniu te modele językowe można dostosować do konkretnych zadań lub zastosowań, dzięki czemu stają się uniwersalnymi narzędziami przetwarzanie języka naturalnego, chatboty, generowanie treści i nie tylko.
  • Sztuczna inteligencja ogólna: Sztuczna inteligencja ogólna (AGI) to rodzaj sztucznej inteligencji zdolnej do rozumienia, uczenia się i wykonywania zadań obejmujących różne domeny na poziomie równym lub przekraczającym ludzkie możliwości poznawcze. W przeciwieństwie do wąskiej lub wyspecjalizowanej sztucznej inteligencji, AGI posiada zdolność autonomicznego dostosowywania się, rozumowania i uczenia się, bez ograniczania się do określonych zadań. AGI umożliwia systemom sztucznej inteligencji prezentowanie niezależnego podejmowania decyzji, rozwiązywania problemów i kreatywnego myślenia, odzwierciedlając ludzką inteligencję. Zasadniczo AGI ucieleśnia ideę maszyny zdolnej podjąć się każdego zadania intelektualnego wykonywanego przez człowieka, podkreślając wszechstronność i zdolność adaptacji w różnych dziedzinach.

Kluczowe ograniczenia LLM w osiąganiu AGI

Modele wielkojęzykowe (LLM) mają ograniczenia w osiąganiu sztucznej inteligencji ogólnej (AGI). Choć są biegli w przetwarzaniu i generowaniu tekstu w oparciu o wyuczone wzorce z ogromnych danych, mają trudności ze zrozumieniem prawdziwego świata, co utrudnia efektywne wykorzystanie wiedzy. AGI wymaga zdrowego rozsądku i umiejętności planowania w radzeniu sobie z codziennymi sytuacjami, które dla LLM stanowią wyzwanie. Pomimo udzielania pozornie poprawnych odpowiedzi, brakuje im umiejętności systematycznego rozwiązywania złożonych problemów, np. matematycznych.

Nowe badania wskazują, że systemy LLM mogą naśladować dowolne obliczenia, podobnie jak komputer uniwersalny, ale są ograniczone potrzebą dużej pamięci zewnętrznej. Zwiększanie ilości danych ma kluczowe znaczenie dla udoskonalenia LLM, ale wymaga znacznych zasobów obliczeniowych i energii, w przeciwieństwie do energooszczędnego ludzkiego mózgu. Stanowi to wyzwanie dla zapewnienia powszechnej dostępności i skalowalności LLM dla AGI. Ostatnie badania sugerują, że samo dodanie większej ilości danych nie zawsze poprawia wydajność, co rodzi pytanie, na czym jeszcze należy się skupić w drodze do AGI.

Łączenie kropek

Wielu ekspertów w dziedzinie sztucznej inteligencji uważa, że ​​wyzwania związane z modelami dużego języka (LLM) wynikają z ich głównego skupienia się na przewidywaniu następnego słowa. Ogranicza to ich zrozumienie niuansów językowych, rozumowania i planowania. Aby sobie z tym poradzić, badacze lubią Yanna LeCuna sugeruj wypróbowanie różnych metod szkoleniowych. Proponują, aby LLM aktywnie planowały przewidywanie słów, a nie tylko następnego tokena.

Pomysł „Q-star”, podobny do strategii AlphaZero, może obejmować poinstruowanie menedżerów LLM, aby aktywnie planowali przewidywanie tokenów, a nie tylko przewidywanie następnego słowa. Wprowadza to do modelu językowego ustrukturyzowane rozumowanie i planowanie, wykraczając poza zwykłe skupienie się na przewidywaniu następnego tokena. Korzystając ze strategii planowania inspirowanych AlphaZero, LLM mogą lepiej zrozumieć niuanse językowe, poprawić rozumowanie i usprawnić planowanie, eliminując ograniczenia regularnych metod szkoleniowych LLM.

Taka integracja ustanawia elastyczne ramy do reprezentowania wiedzy i manipulowania nią, pomagając systemowi dostosować się do nowych informacji i zadań. Ta zdolność adaptacji może mieć kluczowe znaczenie dla sztucznej inteligencji ogólnej (AGI), która musi zajmować się różnymi zadaniami i dziedzinami o różnych wymaganiach.

AGI potrzebuje zdrowego rozsądku, a przeszkolenie osób LLM w zakresie rozumowania może zapewnić im wszechstronne zrozumienie świata. Ponadto szkolenie LLM, takie jak AlphaZero, może pomóc im w zdobyciu wiedzy abstrakcyjnej, usprawniając uczenie się transferowe i generalizację w różnych sytuacjach, przyczyniając się do dobrych wyników AGI.

Oprócz nazwy projektu poparcie dla tego pomysłu pochodzi z raportu Reutersa, w którym podkreślono zdolność Q-star do skutecznego rozwiązywania określonych problemów matematycznych i rozumowania.

Bottom Line

Q-Star, tajny projekt OpenAI, robi furorę w sztucznej inteligencji, dążąc do inteligencji wykraczającej poza ludzi. Pośród dyskusji na temat potencjalnych zagrożeń w tym artykule zagłębiamy się w zagadkę, łącząc elementy Q-learningu z AlphaZero i modelami dużego języka (LLM).

Uważamy, że „Q-star” oznacza inteligentne połączenie uczenia się i poszukiwań, dające studentom LLM impuls w planowaniu i rozumowaniu. Ponieważ agencja Reuters twierdzi, że może rozwiązać trudne problemy matematyczne i rozumowania, oznacza to znaczny postęp. Wymaga to bliższego przyjrzenia się temu, dokąd może zmierzać uczenie się sztucznej inteligencji w przyszłości.

Dr Tehseen Zia jest profesorem nadzwyczajnym na Uniwersytecie COMSATS w Islamabadzie oraz posiada tytuł doktora w dziedzinie sztucznej inteligencji uzyskany na Politechnice Wiedeńskiej w Austrii. Specjalizuje się w sztucznej inteligencji, uczeniu maszynowym, nauce danych i wizji komputerowej, wniósł znaczący wkład w postaci publikacji w renomowanych czasopismach naukowych. Dr Tehseen kierował także różnymi projektami przemysłowymi jako główny badacz i pełnił funkcję konsultanta ds. sztucznej inteligencji.