Kontakt z nami

Artificial Intelligence

Jakie są halucynacje LLM? Przyczyny, obawy etyczne i zapobieganie

mm

Duże modele językowe (LLM) to systemy sztucznej inteligencji zdolne do analizowania i generowania tekstu podobnego do ludzkiego. Ale mają problem – LLM mają halucynacje, tj. zmyślają. Halucynacje LLM wzbudziły zaniepokojenie badaczy postępem w tej dziedzinie, ponieważ jeśli badacze nie będą w stanie kontrolować wyników modeli, nie będą w stanie zbudować krytycznych systemów, które będą służyć ludzkości. Więcej na ten temat później.

Ogólnie rzecz biorąc, LLM wykorzystują ogromne ilości danych szkoleniowych i złożonych algorytmów uczenia się do generowania realistycznych wyników. W niektórych przypadkach, stosowane jest uczenie się kontekstowe wytrenować te modele na podstawie zaledwie kilku przykładów. LLM stają się coraz bardziej popularne w różnych obszarach zastosowań, począwszy od tłumaczenia maszynowego, analizy nastrojów, pomocy wirtualnej sztucznej inteligencji, adnotacji obrazów, przetwarzanie języka naturalnego, itp.

Pomimo nowatorskiego charakteru LLM, są one nadal podatne na uprzedzenia, błędy i halucynacje. Yann LeCun, obecny główny naukowiec zajmujący się sztuczną inteligencją w Meta, wspomniał niedawno o główna wada LLM powodująca halucynacje: „Duże modele językowe nie mają pojęcia o ukrytej rzeczywistości, którą opisuje język. Systemy te generują tekst, który brzmi dobrze, gramatycznie i semantycznie, ale tak naprawdę nie mają żadnego celu poza spełnieniem statystycznej spójności z podpowiedzią”.

Halucynacje w LLM

Image by Gerd Altmann z Pixabay

Halucynacje odnoszą się do modelu generującego wyniki, które są poprawne składniowo i semantycznie, ale są odłączone od rzeczywistości i oparte na fałszywych założeniach. Halucynacje są jednymi z głównych problemów etycznych LLMi może mieć szkodliwe konsekwencje, ponieważ użytkownicy bez odpowiedniej wiedzy dziedzinowej zaczną nadmiernie polegać na tych coraz bardziej przekonujących modelach językowych.

Pewien stopień halucynacji jest nieunikniony we wszystkich autoregresyjnych LLM. Na przykład modelka może przypisać celebrycie fałszywy cytat, który nigdy nie został wypowiedziany. Mogą twierdzić, że na dany temat jest coś, co jest niezgodne z faktami lub powoływać się na nieistniejące źródła w artykułach naukowych, szerząc w ten sposób dezinformację.

Jednak wywoływanie halucynacji w modelach AI nie zawsze ma niekorzystne skutki. Na przykład: sugeruje nowe badanie Naukowcy odkrywają „nowe białka o nieograniczonej liczbie właściwości” za pomocą halucynacji LLM.

Co powoduje halucynacje LLM?

LLM mogą mieć halucynacje z powodu różnych czynników, począwszy od błędów nadmiernego dopasowania w kodowaniu i dekodowaniu po błąd szkoleniowy.

Przeładowanie

Image by janjf93 z Pixabay

Nadmierne dopasowanie to problem polegający na tym, że model sztucznej inteligencji zbyt dobrze pasuje do danych szkoleniowych. Mimo to nie może w pełni reprezentować całego zakresu danych wejściowych, jakie może napotkać, tj. nie uogólnia swojej mocy predykcyjnej do nowych, niewidzianych danych. Nadmierne dopasowanie może prowadzić do tego, że model będzie wytwarzał halucynacje.

Błędy kodowania i dekodowania

Image by Geralt z Pixabay

Jeśli w kodowaniu i dekodowaniu tekstu oraz jego kolejnych reprezentacji występują błędy, może to również spowodować, że model wygeneruje bezsensowne i błędne wyniki.

Błędy szkoleniowe

Image by Pigwa kreatywna z Pixabay

Innym czynnikiem jest obecność pewnych błędów w danych treningowych, co może powodować, że model będzie generował wyniki odzwierciedlające te błędy, a nie rzeczywistą naturę danych. Jest to podobne do braku zróżnicowania danych treningowych, który ogranicza zdolność modelu do generalizacji na nowe dane.

Złożona struktura LLM sprawia, że ​​badacze i praktycy sztucznej inteligencji mają dość duże wyzwanie, aby zidentyfikować, zinterpretować i skorygować podstawowe przyczyny halucynacji.

Problemy etyczne halucynacji LLM

LLM mogą utrwalać i wzmacniać szkodliwe uprzedzenia poprzez halucynacje, co z kolei może mieć negatywny wpływ na użytkowników i mieć szkodliwe konsekwencje społeczne. Poniżej wymieniono niektóre z najważniejszych kwestii etycznych:

Dyskryminujące i toksyczne treści

Image by ar130405 z Pixabay

Ponieważ dane szkoleniowe LLM są często pełne stereotypów społeczno-kulturowych ze względu na nieodłączne uprzedzenia i brak różnorodności. LLM mogą zatem produkować i wzmacniać te szkodliwe pomysły przeciwko grupom znajdującym się w niekorzystnej sytuacji w społeczeństwie.

Mogą generować te dyskryminujące i nienawistne treści ze względu na rasę, płeć, religię, pochodzenie etniczne itp.

Prywatne problemy

Image by JanBaby z Pixabay

LLM są szkoleni w oparciu o ogromny korpus szkoleniowy, który często zawiera dane osobowe poszczególnych osób. Zdarzały się przypadki, w których takie modele miały naruszył prywatność ludzi. Mogą ujawnić określone informacje, takie jak numery ubezpieczenia społecznego, adresy domowe, numery telefonów komórkowych i dane medyczne.

Dezinformacja i dezinformacja

Image by Geralt z Pixabay

Modele językowe mogą tworzyć treści przypominające ludzkie, które wydają się dokładne, ale w rzeczywistości są fałszywe i nie poparte dowodami empirycznymi. Może to być przypadkowe i prowadzić do dezinformacji lub może kryć się za nim złośliwy zamiar świadomego szerzenia dezinformacji. Jeśli nie zostanie to kontrolowane, może to spowodować niekorzystne trendy społeczno-kulturowo-gospodarczo-polityczne.

Zapobieganie halucynacjom LLM

Image by trzy23 z Pixabay

Naukowcy i praktycy stosują różne podejścia, aby rozwiązać problem halucynacji w LLM. Obejmują one między innymi poprawę różnorodności danych szkoleniowych, wyeliminowanie nieodłącznych błędów uprzedzeń, zastosowanie lepszych technik regularyzacji oraz zastosowanie treningu kontradyktoryjnego i uczenia się przez wzmacnianie:

  • Opracowanie lepszych technik regularyzacji jest podstawą walki z halucynacjami. Pomagają zapobiegać przetrenowaniu i innym problemom powodującym halucynacje.
  • Zwiększanie danych może zmniejszyć częstotliwość halucynacji, o czym świadczy: Praca badawcza. Rozszerzanie danych polega na rozszerzaniu zbioru uczącego poprzez dodanie losowego tokena w dowolnym miejscu zdania. Podwaja wielkość zbioru uczącego i powoduje zmniejszenie częstotliwości halucynacji.
  • OpenAI i DeepMind firmy Google opracowały technikę zwaną uczenie się przez wzmacnianie za pomocą informacji zwrotnych od ludzi (RLHF) ma na celu rozwiązanie problemu halucynacji w ChatGPT. Wymaga to zaangażowania osoby oceniającej, która regularnie analizuje odpowiedzi modelu i wybiera te najbardziej odpowiednie dla podpowiedzi użytkownika. Ta informacja zwrotna jest następnie wykorzystywana do dostosowywania działania modelu. Ilya Sutskever, główny naukowiec OpenAI, wspomniał niedawno, że to podejście może potencjalnie rozwiązać halucynacje w ChatGPT: „Mam nadzieję, że po prostu ulepszając to późniejsze uczenie się wzmacniające na etapie sprzężenia zwrotnego od człowieka, będziemy w stanie nauczyć je, aby nie miało halucynacji”.
  • Identyfikacja treści zawierających halucynacje w celu wykorzystania ich jako przykładu w przyszłym szkoleniu jest również metodą stosowaną w walce z halucynacjami. A nowatorska technika w tym zakresie wykrywa halucynacje na poziomie żetonu i przewiduje, czy każdy żeton na wyjściu jest halucynacją. Obejmuje także metodę uczenia się bez nadzoru detektorów halucynacji.

Krótko mówiąc, halucynacje w LLM stanowią coraz większy problem. Pomimo wysiłków, wciąż pozostaje wiele do zrobienia, aby rozwiązać ten problem. Złożoność tych modeli oznacza, że ​​na ogół trudno jest poprawnie zidentyfikować i usunąć przyczyny halucynacji.

Jednakże dzięki ciągłym badaniom i rozwojowi możliwe jest złagodzenie halucynacji w LLM i zmniejszenie ich konsekwencji etycznych.

Jeśli chcesz dowiedzieć się więcej o LLM i technikach zapobiegawczych opracowywanych w celu skorygowania halucynacji LLM, sprawdź zjednoczyć.ai aby poszerzyć swoją wiedzę.