stub Jakie są halucynacje LLM? Przyczyny, obawy etyczne i zapobieganie — Unite.AI
Kontakt z nami

Artificial Intelligence

Jakie są halucynacje LLM? Przyczyny, obawy etyczne i zapobieganie

mm

Opublikowany

 on

Duże modele językowe (LLM) to systemy sztucznej inteligencji zdolne do analizowania i generowania tekstu podobnego do ludzkiego. Ale mają problem – LLM mają halucynacje, tj. zmyślają. Halucynacje LLM wzbudziły zaniepokojenie badaczy postępem w tej dziedzinie, ponieważ jeśli badacze nie będą w stanie kontrolować wyników modeli, nie będą w stanie zbudować krytycznych systemów, które będą służyć ludzkości. Więcej na ten temat później.

Ogólnie rzecz biorąc, LLM wykorzystują ogromne ilości danych szkoleniowych i złożonych algorytmów uczenia się do generowania realistycznych wyników. W niektórych przypadkach, stosowane jest uczenie się kontekstowe wytrenować te modele na podstawie zaledwie kilku przykładów. LLM stają się coraz bardziej popularne w różnych obszarach zastosowań, począwszy od tłumaczenia maszynowego, analizy nastrojów, pomocy wirtualnej sztucznej inteligencji, adnotacji obrazów, przetwarzanie języka naturalnego, itp.

Pomimo nowatorskiego charakteru LLM, są one nadal podatne na uprzedzenia, błędy i halucynacje. Yann LeCun, obecny główny naukowiec zajmujący się sztuczną inteligencją w Meta, wspomniał niedawno o główna wada LLM powodująca halucynacje: „Duże modele językowe nie mają pojęcia o rzeczywistości, którą opisuje język. Systemy te generują tekst, który brzmi dobrze, gramatycznie i semantycznie, ale tak naprawdę nie mają żadnego innego celu poza zapewnieniem statystycznej spójności z podpowiedzią”.

Halucynacje w LLM

Image by Gerd Altmann z Pixabay

Halucynacje odnoszą się do modelu generującego wyniki, które są poprawne składniowo i semantycznie, ale są odłączone od rzeczywistości i oparte na fałszywych założeniach. Halucynacje są jednymi z głównych problemów etycznych LLMi może mieć szkodliwe konsekwencje, ponieważ użytkownicy bez odpowiedniej wiedzy dziedzinowej zaczną nadmiernie polegać na tych coraz bardziej przekonujących modelach językowych.

Pewien stopień halucynacji jest nieunikniony we wszystkich autoregresyjnych LLM. Na przykład modelka może przypisać celebrycie fałszywy cytat, który nigdy nie został wypowiedziany. Mogą twierdzić, że na dany temat jest coś, co jest niezgodne z faktami lub powoływać się na nieistniejące źródła w artykułach naukowych, szerząc w ten sposób dezinformację.

Jednak wywoływanie halucynacji w modelach AI nie zawsze ma niekorzystne skutki. Na przykład: sugeruje nowe badanie naukowcy odkrywają „nowe białka o nieograniczonej gamie właściwości” za pomocą halucynacyjnych LLM.

Co powoduje halucynacje LLM?

LLM mogą mieć halucynacje z powodu różnych czynników, począwszy od błędów nadmiernego dopasowania w kodowaniu i dekodowaniu po błąd szkoleniowy.

Przeładowanie

Image by janjf93 z Pixabay

Nadmierne dopasowanie to problem polegający na tym, że model sztucznej inteligencji zbyt dobrze pasuje do danych szkoleniowych. Mimo to nie może w pełni reprezentować całego zakresu danych wejściowych, jakie może napotkać, tj. nie uogólnia swojej mocy predykcyjnej do nowych, niewidzianych danych. Nadmierne dopasowanie może prowadzić do tego, że model będzie wytwarzał halucynacje.

Błędy kodowania i dekodowania

Image by Geralt z Pixabay

Jeśli w kodowaniu i dekodowaniu tekstu oraz jego kolejnych reprezentacji występują błędy, może to również spowodować, że model wygeneruje bezsensowne i błędne wyniki.

Błędy szkoleniowe

Image by Pigwa kreatywna z Pixabay

Innym czynnikiem jest obecność pewnych błędów systematycznego w danych uczących, co może spowodować, że model będzie generował wyniki odzwierciedlające te błędy, a nie faktyczny charakter danych. Jest to podobne do braku różnorodności danych uczących, co ogranicza zdolność modelu do uogólniania na nowe dane.

Złożona struktura LLM sprawia, że ​​badacze i praktycy sztucznej inteligencji mają dość duże wyzwanie, aby zidentyfikować, zinterpretować i skorygować podstawowe przyczyny halucynacji.

Problemy etyczne halucynacji LLM

LLM mogą utrwalać i wzmacniać szkodliwe uprzedzenia poprzez halucynacje, co z kolei może mieć negatywny wpływ na użytkowników i mieć szkodliwe konsekwencje społeczne. Poniżej wymieniono niektóre z najważniejszych kwestii etycznych:

Dyskryminujące i toksyczne treści

Image by ar130405 z Pixabay

Ponieważ dane szkoleniowe LLM są często pełne stereotypów społeczno-kulturowych ze względu na nieodłączne uprzedzenia i brak różnorodności. LLM mogą zatem produkować i wzmacniać te szkodliwe pomysły przeciwko grupom znajdującym się w niekorzystnej sytuacji w społeczeństwie.

Mogą generować te dyskryminujące i nienawistne treści ze względu na rasę, płeć, religię, pochodzenie etniczne itp.

Prywatne problemy

Image by JanBaby z Pixabay

LLM są szkoleni w oparciu o ogromny korpus szkoleniowy, który często zawiera dane osobowe poszczególnych osób. Zdarzały się przypadki, w których takie modele miały naruszył prywatność ludzi. Mogą ujawnić określone informacje, takie jak numery ubezpieczenia społecznego, adresy domowe, numery telefonów komórkowych i dane medyczne.

Dezinformacja i dezinformacja

Image by Geralt z Pixabay

Modele językowe mogą tworzyć treści przypominające ludzkie, które wydają się dokładne, ale w rzeczywistości są fałszywe i nie poparte dowodami empirycznymi. Może to być przypadkowe i prowadzić do dezinformacji lub może kryć się za nim złośliwy zamiar świadomego szerzenia dezinformacji. Jeśli nie zostanie to kontrolowane, może to spowodować niekorzystne trendy społeczno-kulturowo-gospodarczo-polityczne.

Zapobieganie halucynacjom LLM

Image by trzy23 z Pixabay

Naukowcy i praktycy stosują różne podejścia, aby rozwiązać problem halucynacji w LLM. Obejmują one między innymi poprawę różnorodności danych szkoleniowych, wyeliminowanie nieodłącznych błędów uprzedzeń, zastosowanie lepszych technik regularyzacji oraz zastosowanie treningu kontradyktoryjnego i uczenia się przez wzmacnianie:

  • Opracowanie lepszych technik regularyzacji jest podstawą walki z halucynacjami. Pomagają zapobiegać przetrenowaniu i innym problemom powodującym halucynacje.
  • Zwiększanie danych może zmniejszyć częstotliwość halucynacji, o czym świadczy: Praca badawcza. Rozszerzanie danych polega na rozszerzaniu zbioru uczącego poprzez dodanie losowego tokena w dowolnym miejscu zdania. Podwaja wielkość zbioru uczącego i powoduje zmniejszenie częstotliwości halucynacji.
  • OpenAI i Google DeepMind opracowały technikę zwaną uczenie się przez wzmacnianie za pomocą informacji zwrotnych od ludzi (RLHF) w celu rozwiązania problemu halucynacji ChatGPT. Angażuje się w to osobę oceniającą, która często przegląda odpowiedzi modelu i wybiera najbardziej odpowiednie dla podpowiedzi użytkownika. Informacje te są następnie wykorzystywane do dostosowania zachowania modelu. Ilya Sutskever, główny naukowiec OpenAI, wspomniał niedawno, że takie podejście może potencjalnie rozwiązać halucynacje w ChatGPT: „Mam nadzieję, że po prostu usprawniając kolejne uczenie się przez wzmacnianie na etapie informacji zwrotnej od człowieka, możemy nauczyć go, aby nie miał halucynacji”.
  • Identyfikacja treści zawierających halucynacje w celu wykorzystania ich jako przykładu w przyszłym szkoleniu jest również metodą stosowaną w walce z halucynacjami. A nowatorska technika w tym zakresie wykrywa halucynacje na poziomie żetonu i przewiduje, czy każdy żeton na wyjściu jest halucynacją. Obejmuje także metodę uczenia się bez nadzoru detektorów halucynacji.

Mówiąc prościej, halucynacje LLM stanowią coraz większy problem. Pomimo wysiłków nadal pozostaje wiele do zrobienia, aby rozwiązać ten problem. Złożoność tych modeli oznacza, że ​​na ogół trudno jest prawidłowo zidentyfikować i skorygować nieodłączne przyczyny halucynacji.

Jednakże dzięki ciągłym badaniom i rozwojowi możliwe jest złagodzenie halucynacji w LLM i zmniejszenie ich konsekwencji etycznych.

Jeśli chcesz dowiedzieć się więcej o LLM i technikach zapobiegawczych opracowywanych w celu skorygowania halucynacji LLM, sprawdź zjednoczyć.ai aby poszerzyć swoją wiedzę.