Connect with us

AI uczy się od AI: Pojawienie się uczenia społecznego wśród dużych modeli językowych

Sztuczna inteligencja

AI uczy się od AI: Pojawienie się uczenia społecznego wśród dużych modeli językowych

mm

Od czasu, gdy OpenAI zaprezentowało ChatGPT 3.5 pod koniec 2022 roku, rola modeli językowych (LLM) stała się coraz bardziej prominentna w sztucznej inteligencji (AI), szczególnie w przetwarzaniu języka naturalnego (NLP). Te LLM, zaprojektowane do przetwarzania i generowania tekstu podobnego do ludzkiego, uczą się z ogromnej ilości tekstów z internetu, od książek po strony internetowe. Ten proces uczenia pozwala im uchwycić istotę języka ludzkiego, sprawiając, że LLM wydają się jak ogólne rozwiązania problemów.

Podczas gdy rozwój LLM otworzył nowe drzwi, metoda adaptacji tych modeli do konkretnych aplikacji – znana jako fine-tuning – przynosi swoje własne wyzwania. Fine-tuning modelu wymaga dodatkowego szkolenia na bardziej ukierunkowanych zbiorach danych, co może prowadzić do trudności, takich jak wymóg danych oznaczonych, ryzyko dryfu modelu i przeuczenia, oraz potrzeba znacznych zasobów.

W odpowiedzi na te wyzwania, badacze z Google niedawno przyjęli ideę „uczenia społecznego”, aby pomóc AI uczyć się od AI. Kluczowym pomysłem jest to, że gdy LLM są przekształcane w czatboty, mogą one wzajemnie się uczyć i interakcjonować w sposób podobny do ludzkiego uczenia społecznego. Ta interakcja umożliwia im uczenie się od siebie, co zwiększa ich skuteczność.

Co to jest uczenie społeczne?

Uczenie społeczne nie jest nową ideą. Opiera się na teorii z lat 70. autorstwa Alberta Bandury, która sugeruje, że ludzie uczą się, obserwując innych. Ten koncept zastosowany do AI oznacza, że systemy AI mogą się poprawiać, interakcjonując ze sobą, ucząc się nie tylko z bezpośrednich doświadczeń, ale także z działań rówieśników. Ta metoda obiecuje szybsze nabycie umiejętności i może nawet pozwolić systemom AI na rozwinięcie własnej „kultury” przez współdzielenie wiedzy.

W przeciwieństwie do innych metod uczenia AI, takich jak próba i błąd uczenie wzmocnione lub uczenie naśladowcze z bezpośrednich przykładów, uczenie społeczne podkreśla uczenie się przez interakcję. Oferuje bardziej praktyczny i wspólnotowy sposób, w jaki AI może nabyć nowe umiejętności.

Uczenie społeczne w LLM

Istotnym aspektem uczenia społecznego jest wymiana wiedzy bez udostępniania oryginalnych i wrażliwych informacji. W związku z tym badacze zastosowali dynamiczną relację nauczyciel-uczeń, w której modele nauczycielskie ułatwiają proces uczenia się modelom uczniom bez ujawniania żadnych poufnych szczegółów. Aby osiągnąć ten cel, modele nauczycielskie generują syntetyczne przykłady lub instrukcje, z których modele uczniowskie mogą się uczyć bez udostępniania oryginalnych danych. Na przykład, rozważając model nauczycielski wyszkolony w rozróżnianiu między wiadomościami spamowymi a niespamowymi przy użyciu danych oznaczonych przez użytkowników. Jeśli chcemy, aby inny model opanował tę zadanie bez dostępu do oryginalnych, poufnych danych, uczenie społeczne wchodzi w grę. Model nauczycielski tworzy syntetyczne przykłady lub udziela wskazówek na podstawie swojej wiedzy, umożliwiając modelowi uczniowskiemu identyfikację wiadomości spamowych bez bezpośredniego dostępu do wrażliwych danych. Ta strategia nie tylko zwiększa wydajność uczenia, ale także demonstruje potencjał LLM do uczenia się w dynamiczny, adaptacyjny sposób, potencjalnie budując zbiorową kulturę wiedzy. Istotną cechą tego podejścia jest jego zależność od syntetycznych przykładów i opracowanych instrukcji. Generując nowe, informacyjne przykłady odrębne od oryginalnego zbioru danych, modele nauczycielskie mogą zachować prywatność, jednocześnie kierując modele uczniowskie w kierunku skutecznego uczenia się. Podejście to okazało się skuteczne, osiągając wyniki porównywalne z tymi uzyskanymi przy użyciu rzeczywistych danych.

Jak uczenie społeczne rozwiązuje wyzwania fine-tuning?

Uczenie społeczne oferuje nowy sposób udoskonalania LLM dla konkretnych zadań. Pomaga w rozwiązywaniu wyzwań fine-tuning w następujący sposób:

  1. Mniejsza potrzeba danych oznaczonych: Ucząc się z syntetycznych przykładów wymienianych między modelami, uczenie społeczne redukuje zależność od trudno dostępnych danych oznaczonych.
  2. Unikanie prze-specjalizacji: Zachowuje modele wszechstronne, eksponując je na szerszy zakres przykładów niż te w małych, specyficznych zbiorach danych.
  3. Redukcja prze-uczenia: Uczenie społeczne rozszerza doświadczenie uczenia, pomagając modelom lepiej uogólniać i unikać prze-uczenia.
  4. Oszczędność zasobów: To podejście pozwala na bardziej efektywne wykorzystanie zasobów, ponieważ modele uczą się z doświadczeń wzajemnych bez potrzeby bezpośredniego dostępu do dużych zbiorów danych.

Przyszłe kierunki

Potencjał uczenia społecznego w LLM sugeruje różne interesujące i znaczące sposoby na przyszłe badania AI:

  1. Hybrydowe kultury AI: Podczas gdy LLM uczestniczą w uczeniu społecznym, mogą zacząć tworzyć wspólne metody. Badania mogłyby być prowadzone w celu zbadania wpływu tych pojawiających się „kultur” AI na interakcje ludzkie i zaangażowane kwestie etyczne.
  2. Uczenie między-modalarne: Rozszerzenie uczenia społecznego poza tekst, aby objąć obrazy, dźwięki i więcej, mogłoby prowadzić do systemów AI z głębszym zrozumieniem świata, podobnie jak ludzie uczą się przez wiele zmysłów.
  3. Uczenie zdecentralizowane: Pomysł, że modele AI uczą się od siebie w zdecentralizowanej sieci, prezentuje nowy sposób na skalowanie wymiany wiedzy. To wymagałoby rozwiązania znacznych wyzwań w koordynacji, prywatności i bezpieczeństwie.
  4. Interakcja człowiek-AI: Istnieje potencjał w badaniu, w jaki sposób ludzie i AI mogą wzajemnie korzystać z uczenia społecznego, szczególnie w edukacyjnych i współpracujących środowiskach. To mogłoby przedefiniować, w jaki sposób transfer wiedzy i innowacje mają miejsce.
  5. Etyczny rozwój AI: Nauczanie AI, aby rozwiązywały dylematy etyczne za pomocą uczenia społecznego, mogłoby być krokiem w kierunku bardziej odpowiedzialnych systemów AI. Skupiono by się na tworzeniu systemów AI, które mogą etycznie rozważać i współgrać z wartościami społecznymi.
  6. Samodoskonalące się systemy: Ekosystem, w którym modele AI ciągle uczą się i poprawiają dzięki doświadczeniom wzajemnym, mógłby przyspieszyć innowacje AI. To sugeruje przyszłość, w której AI może dostosowywać się do nowych wyzwań w sposób bardziej autonomiczny.
  7. Prywatność w uczeniu: Z modelem AI, który dzieli wiedzę, zapewnienie prywatności podstawowych danych jest kluczowe. Przyszłe wysiłki mogą skupić się na bardziej zaawansowanych metodach umożliwiających transfer wiedzy bez kompromitowania bezpieczeństwa danych.

Podsumowanie

Badacze z Google zapoczątkowali innowacyjne podejście zwane uczeniem społecznym wśród dużych modeli językowych (LLM), zainspirowane ludzką zdolnością do uczenia się przez obserwację innych. Ten framework pozwala LLM na dzielenie się wiedzą i poprawianie możliwości bez dostępu lub ujawniania wrażliwych danych. Generując syntetyczne przykłady i instrukcje, LLM mogą się skutecznie uczyć, rozwiązując kluczowe wyzwania w rozwoju AI, takie jak potrzeba danych oznaczonych, prze-specjalizacja, prze-uczenie i zużycie zasobów. Uczenie społeczne nie tylko zwiększa wydajność i adaptacyjność AI, ale także otwiera możliwości dla AI do rozwoju wspólnych „kultur”, angażowania się w uczenie między-modalarne, uczestniczenia w zdecentralizowanych sieciach, interakcji z ludźmi na nowe sposoby, nawigowania w dylematach etycznych i zapewnienia prywatności. To oznacza znaczącą zmianę w kierunku bardziej współpracujących, wszechstronnych i etycznych systemów AI, obiecując zdefiniować nowy krajobraz badań i aplikacji sztucznej inteligencji.

Dr. Tehseen Zia jest profesorem nadzwyczajnym w COMSATS University Islamabad, posiada tytuł doktora w dziedzinie sztucznej inteligencji na Vienna University of Technology, Austria. Specjalizując się w sztucznej inteligencji, uczeniu maszynowym, nauce o danych i widzeniu komputerowym, wniósł znaczący wkład poprzez publikacje w renomowanych czasopismach naukowych. Dr. Tehseen Zia również kierował różnymi projektami przemysłowymi jako główny badacz i pełnił funkcję konsultanta ds. sztucznej inteligencji.