Kontakt z nami

Sztuczna inteligencja ogólna

Łączenie kropek: odkrywanie rzekomego modelu Q-Star OpenAI

mm

Ostatnio w społeczności AI pojawiło się sporo spekulacji wokół domniemanego projektu OpenAI, Q-star. Pomimo ograniczonej ilości informacji dostępnych na temat tej tajemniczej inicjatywy, mówi się, że stanowi ona znaczący krok w kierunku osiągnięcia ogólnej sztucznej inteligencji – poziomu inteligencji, który dorównuje lub przewyższa ludzkie możliwości. Chociaż większość dyskusji koncentrowała się na potencjalnych negatywnych konsekwencjach tego rozwoju dla ludzkości, stosunkowo niewiele wysiłku poświęcono na odkrycie natury Q-star i potencjalnych korzyści technologicznych, jakie może przynieść. W niniejszym artykule podejdę do tego projektu w sposób eksploracyjny, próbując rozwikłać jego zagadkę przede wszystkim na podstawie jego nazwy, która, jak sądzę, dostarcza wystarczających informacji, aby wyciągnąć z niego wnioski.

Tło tajemnicy

Wszystko zaczęło się od nagłego zarządzenia OpenAI obalił Sama Altmana, prezesa i współzałożyciela. Chociaż Altman został później przywrócony na stanowisko, wciąż pojawiają się wątpliwości dotyczące tych wydarzeń. Niektórzy postrzegają je jako walkę o władzę, podczas gdy inni przypisują je skupieniu Altmana na innych przedsięwzięciach, takich jak Worldcoin. Jednak intryga zagęszcza się, gdy Reuters donosi, że tajny projekt o nazwie Q-star może być główną przyczyną dramatu. Według Reutersa, Q-Star stanowi istotny krok w kierunku realizacji celu OpenAI, jakim jest AGI, co wzbudziło obawy pracowników OpenAI. Pojawienie się tej wiadomości wywołało falę spekulacji i obaw.

Bloki konstrukcyjne układanki

W tej części przedstawiłem kilka elementów, które pomogą nam rozwikłać tę tajemnicę.

  • P. Nauka: Uczenie się przez wzmocnienie Q Learning to rodzaj uczenia maszynowego, w którym komputery uczą się poprzez interakcję z otoczeniem, otrzymując informacje zwrotne w postaci nagród lub kar. Q Learning to specyficzna metoda uczenia się przez wzmacnianie, która pomaga komputerom podejmować decyzje poprzez naukę jakości (wartości Q) różnych działań w różnych sytuacjach. Jest szeroko stosowana w takich sytuacjach jak gry i robotyka, umożliwiając komputerom naukę optymalnego podejmowania decyzji poprzez metodę prób i błędów.
  • Wyszukiwanie gwiazd: A-star to algorytm wyszukiwania, który pomaga komputerom odkrywać możliwości i znajdować najlepsze rozwiązanie problemu. Algorytm jest szczególnie godny uwagi ze względu na skuteczność w znajdowaniu najkrótszej ścieżki od punktu początkowego do celu na wykresie lub siatce. Jego kluczowa siła polega na inteligentnym porównaniu kosztu dotarcia do węzła z szacowanym kosztem osiągnięcia ogólnego celu. W rezultacie A-star jest szeroko stosowany w rozwiązywaniu problemów związanych ze znajdowaniem ścieżki i optymalizacją.
  • AlfaZero: AlfaZero, zaawansowany system AI firmy DeepMindŁączy w sobie uczenie się metodą Q i wyszukiwanie (tj. przeszukiwanie metodą Monte Carlo Tree Search) w celu strategicznego planowania w grach planszowych, takich jak szachy i Go. Uczy się optymalnych strategii poprzez samodzielną grę, sterowaną przez sieć neuronową do oceny ruchów i pozycji. Algorytm Monte Carlo Tree Search (MCTS) równoważy eksplorację i eksplorację w badaniu możliwości gry. Iteracyjny proces samodzielności, uczenia się i wyszukiwania w AlphaZero prowadzi do ciągłego doskonalenia, umożliwiając nadludzką wydajność i zwycięstwa nad ludzkimi mistrzami, co dowodzi jego skuteczności w planowaniu strategicznym i rozwiązywaniu problemów.
  • Modele językowe: Duże modele językowe (LLM), jak GPT-3, to forma sztucznej inteligencji zaprojektowana do rozumienia i generowania tekstu podobnego do ludzkiego. Przechodzą szkolenia dotyczące obszernych i różnorodnych danych internetowych, obejmujące szerokie spektrum tematów i stylów pisania. Wyróżniającą cechą LLM jest ich zdolność do przewidywania następnego słowa w sekwencji, znana jako modelowanie języka. Celem jest przekazanie zrozumienia, w jaki sposób słowa i wyrażenia łączą się ze sobą, umożliwiając modelowi utworzenie spójnego i odpowiedniego kontekstowo tekstu. Obszerne szkolenie sprawia, że ​​studenci LLM są biegli w rozumieniu gramatyki, semantyki, a nawet niuansów użycia języka. Po przeszkoleniu te modele językowe można dostosować do konkretnych zadań lub zastosowań, dzięki czemu stają się uniwersalnymi narzędziami przetwarzanie języka naturalnego, chatboty, generowanie treści i nie tylko.
  • Sztuczna inteligencja ogólna: Sztuczna inteligencja ogólna (AGI) to rodzaj sztucznej inteligencji zdolnej do rozumienia, uczenia się i wykonywania zadań obejmujących różne domeny na poziomie równym lub przekraczającym ludzkie możliwości poznawcze. W przeciwieństwie do wąskiej lub wyspecjalizowanej sztucznej inteligencji, AGI posiada zdolność autonomicznego dostosowywania się, rozumowania i uczenia się, bez ograniczania się do określonych zadań. AGI umożliwia systemom sztucznej inteligencji prezentowanie niezależnego podejmowania decyzji, rozwiązywania problemów i kreatywnego myślenia, odzwierciedlając ludzką inteligencję. Zasadniczo AGI ucieleśnia ideę maszyny zdolnej podjąć się każdego zadania intelektualnego wykonywanego przez człowieka, podkreślając wszechstronność i zdolność adaptacji w różnych dziedzinach.

Kluczowe ograniczenia LLM w osiąganiu AGI

Modele wielkojęzykowe (LLM) mają ograniczenia w osiąganiu sztucznej inteligencji ogólnej (AGI). Choć są biegli w przetwarzaniu i generowaniu tekstu w oparciu o wyuczone wzorce z ogromnych danych, mają trudności ze zrozumieniem prawdziwego świata, co utrudnia efektywne wykorzystanie wiedzy. AGI wymaga zdrowego rozsądku i umiejętności planowania w radzeniu sobie z codziennymi sytuacjami, które dla LLM stanowią wyzwanie. Pomimo udzielania pozornie poprawnych odpowiedzi, brakuje im umiejętności systematycznego rozwiązywania złożonych problemów, np. matematycznych.

Nowe badania wskazują, że LLM-y mogą naśladować dowolne obliczenia, podobnie jak komputer uniwersalny, ale są ograniczone przez potrzebę dużej pamięci zewnętrznej. Zwiększanie ilości danych jest kluczowe dla udoskonalania LLM-ów, ale wymaga znacznych zasobów obliczeniowych i energii, w przeciwieństwie do energooszczędnego ludzkiego mózgu. Stanowi to wyzwanie dla powszechnej dostępności i skalowalności LLM-ów dla AGI. Najnowsze badania sugerują, że samo dodanie większej ilości danych nie zawsze poprawia wydajność, co nasuwa pytanie, na czym jeszcze należy się skupić w drodze do AGI.

Łączenie kropek

Wielu ekspertów w dziedzinie sztucznej inteligencji uważa, że ​​wyzwania związane z modelami dużego języka (LLM) wynikają z ich głównego skupienia się na przewidywaniu następnego słowa. Ogranicza to ich zrozumienie niuansów językowych, rozumowania i planowania. Aby sobie z tym poradzić, badacze lubią Yanna LeCuna sugeruj wypróbowanie różnych metod szkoleniowych. Proponują, aby LLM aktywnie planowały przewidywanie słów, a nie tylko następnego tokena.

Idea „Q-star”, podobna do strategii AlphaZero, może polegać na instruowaniu absolwentów studiów magisterskich (LLM) do aktywnego planowania przewidywania tokenów, a nie tylko przewidywania kolejnego słowa. Wprowadza to ustrukturyzowane rozumowanie i planowanie do modelu językowego, wykraczając poza zwykłe skupienie się na przewidywaniu kolejnego tokenu. Stosując strategie planowania inspirowane AlphaZero, absolwenci studiów magisterskich (LLM) mogą lepiej rozumieć niuanse językowe, usprawniać rozumowanie i udoskonalać planowanie, eliminując ograniczenia standardowych metod szkolenia LLM.

Taka integracja ustanawia elastyczne ramy do reprezentowania wiedzy i manipulowania nią, pomagając systemowi dostosować się do nowych informacji i zadań. Ta zdolność adaptacji może mieć kluczowe znaczenie dla sztucznej inteligencji ogólnej (AGI), która musi zajmować się różnymi zadaniami i dziedzinami o różnych wymaganiach.

Sztuczna inteligencja (AGI) potrzebuje zdrowego rozsądku, a szkolenie absolwentów studiów prawniczych (LLM) w zakresie logicznego myślenia może wyposażyć ich w kompleksowe rozumienie świata. Ponadto szkolenie absolwentów studiów prawniczych (LLM), takich jak AlphaZero, może pomóc im w zdobywaniu wiedzy abstrakcyjnej, usprawniając transfer wiedzy i uogólnianie w różnych sytuacjach, przyczyniając się do wysokiej wydajności AGI.

Oprócz nazwy projektu, potwierdzeniem tej idei jest raport agencji Reuters, w którym podkreślono zdolność Q-stara do skutecznego rozwiązywania określonych problemów matematycznych i logicznych.

Bottom Line

Q-Star, tajny projekt OpenAI, wywołuje poruszenie w świecie sztucznej inteligencji, dążąc do osiągnięcia inteligencji wykraczającej poza możliwości człowieka. W obliczu dyskusji o potencjalnych zagrożeniach, niniejszy artykuł zgłębia zagadkę, łącząc ze sobą Q-learning, AlphaZero i modele językowe (LLM).

Uważamy, że „Q-star” oznacza inteligentne połączenie uczenia się i poszukiwań, dające studentom LLM impuls w planowaniu i rozumowaniu. Ponieważ agencja Reuters twierdzi, że może rozwiązać trudne problemy matematyczne i rozumowania, oznacza to znaczny postęp. Wymaga to bliższego przyjrzenia się temu, dokąd może zmierzać uczenie się sztucznej inteligencji w przyszłości.

Dr Tehseen Zia jest profesorem nadzwyczajnym na Uniwersytecie COMSATS w Islamabadzie oraz posiada tytuł doktora w dziedzinie sztucznej inteligencji uzyskany na Politechnice Wiedeńskiej w Austrii. Specjalizuje się w sztucznej inteligencji, uczeniu maszynowym, nauce danych i wizji komputerowej, wniósł znaczący wkład w postaci publikacji w renomowanych czasopismach naukowych. Dr Tehseen kierował także różnymi projektami przemysłowymi jako główny badacz i pełnił funkcję konsultanta ds. sztucznej inteligencji.