Kontakt z nami

Liderzy myśli

Jeśli Twoja sztuczna inteligencja ma halucynacje, nie obwiniaj jej

mm

„Halucynacje” sztucznej inteligencji – te przekonująco brzmiące, ale fałszywe odpowiedzi – przyciągają uwagę mediów, czego przykładem jest niedawny artykuł w „New York Times”: Sztuczna inteligencja staje się coraz potężniejsza, ale jej halucynacje stają się coraz gorsze. Halucynacje są prawdziwym zagrożeniem, gdy masz do czynienia z konsumenckim chatbotem. W kontekście biznesowych zastosowań AI jest to jeszcze poważniejszy problem. Na szczęście jako lider technologii biznesowych mam nad tym większą kontrolę. Mogę się upewnić, że agent ma odpowiednie dane, aby udzielić sensownej odpowiedzi.

Ponieważ to jest prawdziwy problem. W biznesie nie ma usprawiedliwienia dla Halucynacje AI. Przestań obwiniać AI. Obwiniaj siebie za niewłaściwe używanie AI.

Kiedy generatywna sztuczna inteligencja narzędzia halucynują, robią to, do czego zostały zaprojektowane – dostarczają najlepszej możliwej odpowiedzi na podstawie dostępnych danych. Kiedy zmyślają, tworząc odpowiedź, która nie jest oparta na rzeczywistości, Dzieje się tak, ponieważ brakuje im odpowiednich danych, nie mogą ich znaleźć lub nie rozumieją pytania. Tak, nowe modele, takie jak o3 i o4-mini firmy OpenAI, mają więcej halucynacji, działają jeszcze bardziej „kreatywnie”, gdy nie mają dobrej odpowiedzi na zadane im pytanie. Tak, potężniejsze narzędzia mogą mieć więcej halucynacji – ale mogą też dawać potężniejsze i cenniejsze rezultaty, jeśli ustawimy je na sukces.

Jeśli nie chcesz, aby Twoja SI miała halucynacje, nie głodź jej danymi. Karm ją najlepszymi, najbardziej istotnymi danymi dla problemu, który chcesz, aby rozwiązała, a nie będzie kuszona, aby zbłądzić.

Nawet wtedy, pracując z dowolnym narzędziem AI, zalecam zachowanie umiejętności krytycznego myślenia. Wyniki dostarczane przez agentów AI mogą być produktywne i zachwycające, ale nie chodzi o to, aby odłączać mózg i pozwolić oprogramowaniu myśleć za Ciebie. Nie przestawaj zadawać pytań. Kiedy agent AI udzieli Ci odpowiedzi, zakwestionuj ją, aby upewnić się, że ma sens i jest poparta danymi. Jeśli tak, powinno to być zachęcającym znakiem, że warto poświęcić czas na zadawanie pytań uzupełniających.

Im więcej pytań zadajesz, tym lepsze wnioski uzyskasz.

Dlaczego występują halucynacje

To nie jest jakaś tajemnica. AI nie próbuje cię okłamać. Każdy duży model języka (LLM) AI zasadniczo przewiduje następne słowo lub liczbę na podstawie prawdopodobieństwa.

Ogólnie rzecz biorąc, dzieje się tak, że LLM-y łączą zdania i akapity słowo po słowie, przewidując następne słowo, które powinno wystąpić w zdaniu na podstawie miliardów innych przykładów w danych treningowych. Przodkami LLM-ów (oprócz Clippy) były monity autouzupełniania wiadomości tekstowych i kodu komputerowego, zautomatyzowane narzędzia do tłumaczenia języka ludzkiego i inne probabilistyczne systemy lingwistyczne. Dzięki zwiększonej mocy obliczeniowej siły fizycznej oraz szkoleniu na wolumenach danych na skalę Internetu, systemy te stały się na tyle „inteligentne”, że mogły prowadzić pełną konwersację na czacie, czego świat się nauczył wraz z wprowadzeniem ChatGPT.

Sceptycy AI lubią podkreślać, że to nie to samo, co prawdziwa „inteligencja”, tylko oprogramowanie, które potrafi destylować i regurgitować ludzką inteligencję, która została mu wpompowana. Poproś je, aby podsumowało dane w pisemnym raporcie, a ono naśladuje sposób, w jaki inni autorzy podsumowywali podobne dane.

Wydaje mi się, że jest to argument akademicki, o ile dane są poprawne, a analiza użyteczna.

Co się stanie, jeśli AI nie będzie miała danych? Uzupełnia luki. Czasami to zabawne. Czasami to totalny bałagan.

Podczas budowania AI agenci, to 10x większe ryzyko. Agenci powinni dostarczać praktycznych spostrzeżeń, ale podejmują więcej decyzji w trakcie. Wykonywali zadania wieloetapowe, gdzie wynik kroku 1 informuje o krokach 2, 3, 4, 5, … 10 … 20. Jeśli wyniki kroku 1 są nieprawidłowe, błąd zostanie wzmocniony, co sprawi, że wynik w kroku 20 będzie jeszcze gorszy. Zwłaszcza, że ​​agenci mogą podejmować decyzje i pomijać kroki.

Dobrze zrobione, agenci osiągają więcej dla firmy, która ich wdraża. Jednak jako menedżerowie produktów AI musimy zdawać sobie sprawę z większego ryzyka, które idzie w parze z większą nagrodą.

I to właśnie zrobił nasz zespół. Zobaczyliśmy ryzyko i podjęliśmy się go. Nie zbudowaliśmy po prostu wymyślnego robota; upewniliśmy się, że działa na właściwych danych. Oto, co moim zdaniem zrobiliśmy dobrze:

  • Zbuduj agenta, aby zadawał właściwe pytania i sprawdzał, czy ma właściwe dane. Upewnij się, że początkowy proces wprowadzania danych przez agenta jest bardziej deterministyczny, mniej „kreatywny”. Chcesz, aby agent mówił, kiedy nie ma właściwych danych i nie przechodził do następnego kroku, zamiast wymyślać dane.
  • Ustrukturyzuj podręcznik dla swojego agenta – upewnij się, że nie wymyśla on nowego planu za każdym razem, ale ma półstrukturyzowane podejście. Struktura i kontekst są niezwykle ważne na etapie gromadzenia i analizy danych. Możesz pozwolić agentowi się rozluźnić i działać bardziej „kreatywnie”, gdy ma fakty i jest gotowy do napisania podsumowania, ale najpierw upewnij się, że fakty są poprawne.
  • Zbuduj wysokiej jakości narzędzie do ekstrakcji danych. Powinno to być coś więcej niż tylko wywołanie API. Poświęć czas na napisanie kodu (ludzie nadal to robią), który tworzy odpowiednią ilość i różnorodność danych, które zostaną zebrane, wbudowując kontrole jakości w proces.
  • Niech agent pokaże swoją pracę. Agent powinien cytować swoje źródła i linkować do miejsca, w którym użytkownik może zweryfikować dane, z oryginalnego źródła, i zbadać je dalej. Niedozwolone są żadne sztuczki!
  • Bariery ochronne: Przemyśl, co mogłoby pójść nie tak i wbuduj zabezpieczenia przed błędami, na które absolutnie nie możesz sobie pozwolić. W naszym przypadku oznacza to, że gdy agent, któremu powierzono analizę rynku, nie ma danych – mam na myśli nasze dane Similarweb, a nie jakieś losowe źródło danych pobrane z sieci – upewnienie się, że nie wymyśla czegoś, jest niezbędną barierą ochronną. Lepiej, żeby agent nie mógł odpowiedzieć, niż żeby udzielił fałszywej lub wprowadzającej w błąd odpowiedzi.

Włączyliśmy te zasady do naszej ostatniej wersji naszych trzech nowych agentów, a wkrótce będzie ich więcej. Na przykład nasz agent AI Meeting Prep dla sprzedawców nie pyta tylko o nazwę firmy docelowej, ale także o szczegóły dotyczące celu spotkania i osoby, z którą jest ono prowadzone, przygotowując go do udzielenia lepszej odpowiedzi. Nie musi zgadywać, ponieważ wykorzystuje bogactwo danych firmy, danych cyfrowych i profili kierowniczych, aby poinformować o swoich rekomendacjach.

Czy nasi agenci są doskonali? Nie. Nikt jeszcze nie tworzy doskonałej AI, nawet największe firmy na świecie. Ale stawienie czoła problemowi jest o wiele lepsze niż jego ignorowanie.

Chcesz mniej halucynacji? Daj swojej sztucznej inteligencji spory kawałek wysokiej jakości dane.

Jeśli ma halucynacje, to może to nie AI wymaga naprawy. Może to twoje podejście do korzystania z tych potężnych nowych możliwości bez poświęcania czasu i wysiłku, aby je naprawić.

Omri Shtayer jest wiceprezesem ds. produktów danych i DaaS w Similarweb, gdzie kieruje innowacjami w całej organizacji i napędza rozwój jej działalności związanej z danymi. Ostatnio przewodził uruchomieniu AI Agents — skalowalnych, inteligentnych narzędzi zaprojektowanych, aby pomóc firmom tłumaczyć dane na rzeczywiste wyniki. Mając doświadczenie w budowaniu wpływowych rozwiązań dotyczących danych, Omri jest na czele transformacji sposobu, w jaki firmy wykorzystują cyfrową inteligencję.