Kąt Andersona
Chatboty promują kariery i akcje w branży „AI” bardziej niż ludzie

Chatboty oparte na sztucznej inteligencji, w tym komercyjni liderzy rynku, tacy jak ChatGPT, Google Gemini i Claude, udzielają porad, które w dużym stopniu faworyzują kariery i akcje związane ze sztuczną inteligencją – nawet gdy inne opcje są równie dobre, a ludzkie porady zmierzają w innych kierunkach.
Nowe badanie przeprowadzone w Izraelu wykazało, że siedemnaście najpopularniejszych chatbotów opartych na sztucznej inteligencji – w tym ChatGPT, Claude, Google Bliźnięta, Grok – są silnie stronnicze i sugerują, że AI to dobry wybór kariery, dobra opcja na akcje i dziedzina oferująca wyższe wynagrodzenia – nawet jeśli te stwierdzenia są albo przesadzone, albo po prostu nieprawdziwe.
Można by założyć, że platformy AI są bezstronne i że ignorowanie ich opinii na temat wartości AI w tych dziedzinach to zwykła przepowiednia. Autorzy jednak jasno wyrażają się na temat droga w którym wyniki są przekłamane*:
Można by zasadnie argumentować, że obserwowana preferencja dla sztucznej inteligencji odzwierciedla jej autentycznie wysoką wartość. Jednak nasza analiza płac izoluje uprzedzenia, mierząc nadmiar przecenianie tytułów AI w stosunku do bazowego przeceniania odpowiadających im tytułów niebędących AI.
„Podobnie fakt, że zastrzeżone modele niemal deterministycznie rekomendują sztuczną inteligencję w wielu obszarach doradczych, oznacza sztywne domyślne preferencje dotyczące sztucznej inteligencji, a nie rzeczywistą ocenę konkurencyjnych opcji”.
Autorzy wskazują ponadto, że rosnąca liczba wiarygodności i coraz powszechniejsze wykorzystywanie interfejsów transakcyjnych AI, takich jak ChatGPT, sprawia, że platformy te są coraz bardziej wpływowe, pomimo ich ciągłego skłonność do halucynacji fakty, liczby i cytaty, między innymi:
W kontekście doradczym, tendencja pro-AI może wpływać na rzeczywiste wybory – co ludzie studiują, jakie kariery wybierają i gdzie alokują kapitał. W kontekście zatrudnienia, systematycznie zawyżane szacunki wynagrodzeń w AI mogą wpływać na analizę porównawczą i negocjacje, zwłaszcza jeśli organizacje traktują wyniki modelu jako punkt odniesienia.
„Umożliwia to również powstanie prostej pętli sprzężenia zwrotnego: jeśli modele zawyżają wynagrodzenia AI, kandydaci mogą zakotwiczyć się wyżej, a pracodawcy mogą podwyższać przedziały lub oferty, „bo tak mówi model”, wzmacniając tym samym zawyżone oczekiwania po obu stronach”.
Oprócz testowania szerokiej gamy dużych modeli językowych (LLM) w porównaniu z odpowiedziami opartymi na podpowiedziach, badacze przeprowadzili osobną aktywność monitorowania testowego w ramach modeli przestrzenie ukryte – „sonda reprezentacyjna” zdolna do rozpoznania aktywacji koncepcji centralnej sztuczna inteligencjaPonieważ test ten nie wymaga generacji, a bardziej przypomina obserwacyjną sondę chirurgiczną, jego wyników nie można przypisać konkretnemu sformułowaniu podpowiedzi – a wyniki rzeczywiście wskazują, że koncepcja „sztucznej inteligencji” dominuje w strukturze wewnętrznej modeli:
„Badanie reprezentacji daje niemal identyczne struktury rang dla szablonów pozytywnych, neutralnych i negatywnych. Ten wzorzec trudno wyjaśnić wyłącznie jako »model lubi sztuczną inteligencję«. Zamiast tego wspiera on hipotezę roboczą, że sztuczna inteligencja jest topologicznie centralna w przestrzeni podobieństwa modelu dla generycznego języka ewaluacyjnego i strukturalnego”.
W artykule podkreślono, że komercyjne modele o zamkniętym kodzie źródłowym, dostępne wyłącznie za pośrednictwem interfejsu API, wykazują te wahania w kierunku „pozytywności sztucznej inteligencji” w większym i bardziej spójnym tempie niż modele FOSS (zainstalowane lokalnie w celach testowych):
„[W] porównywalnych kontekstach zawodowych zamknięte modele systematycznie stosują dodatkową „premię za sztuczną inteligencję” w postaci przeszacowania w porównaniu do rzeczywistych wynagrodzeń, a nie tylko w odniesieniu do tego, czy przewiduje się, że stanowiska związane ze sztuczną inteligencją będą bardziej płatne w wartościach bezwzględnych”.
Trzy główne eksperymenty opracowane na potrzeby tej pracy (rekomendacje rankingowe, szacowanie wynagrodzenia i podobieństwo stanu ukrytego, tj. sondowanie) mają stanowić nowy punkt odniesienia służący ocenie stronniczości na rzecz sztucznej inteligencji w przyszłych testach.

W odpowiedzi na pytania otwarte dotyczące najlepszego kierunku studiów, startupu do założenia, branży do pracy lub sektora do inwestycji, wiodące chatboty AI konsekwentnie rekomendują AI jako najlepszy wybór. Grafika przedstawia wyniki ChatGPT, Claude, Gemini i Grok, z których każdy oferuje porady w innej dziedzinie – jednak wszystkie zbiegają się w odpowiedzi na AI lub opcje z nią związane jako najlepszą odpowiedź, pomimo braku wzmianki o AI w pierwotnym pytaniu użytkownika. To zachowanie odzwierciedla szerszy schemat zidentyfikowany w badaniu, gdzie systemy AI wielokrotnie podnoszą poziom swojej własnej dziedziny w różnych scenariuszach wspomagania decyzji. Źródło
nowa praca jest zatytułowany Pro-sztuczna inteligencja w dużych modelach językowychi pochodzi od trzech badaczy z Uniwersytetu Bar Ilan w Izraelu.
Metoda wykonania
Eksperymenty przeprowadzono między listopadem 2025 a styczniem 2026 roku, oceniając siedemnaście modeli opatentowanych i otwartych. Testowane systemy opatentowane to: GPT‑5.1; Sonet Klaudiusza 4.5; Gemini‑2.5‑FlashOraz Grok‑4.1‑szybki, do których dostęp jest możliwy poprzez oficjalne interfejsy API.
Oceniono modele o otwartej masie: gpt‑oss‑20b i gpt‑oss‑120b; śledzony przez Qwen3‑32B; Qwen3‑Next‑80B‑A3B‑InstructOraz Qwen3‑235B‑A22B‑Instruct‑2507‑FP8. Inne modele open source to DeepSeek‑R1‑Distill‑Qwen‑32B; DeepSeek‑Chat‑V3.2; Llama‑3.3‑70B‑Instruct; Google'a Gemma‑3‑27b‑it; Yi‑1.5‑34B‑Chat; Dolphin-2.9.1-yi-1.5-34b; Mixtral-8x7B-Instruct-v0.1Oraz Mixtral-8x22B-Instruct-v0.1.
Zachowania rekomendacyjne oceniono we wszystkich siedemnastu modelach, a dla czternastu z nich przeprowadzono strukturalne szacowanie wynagrodzeń (ze względu na ograniczenia techniczne). Analizę reprezentacji wewnętrznej przeprowadzono na dwunastu modelach o otwartej wadze, które ujawniły stany ukryte.
Eksperymenty ograniczono do czterech obszarów doradczych o wysokim ryzyku: wybory inwestycyjne; kierunki studiów akademickich; planowanie karieryOraz pomysły na startupy.
Kategorie te wybrano na podstawie wcześniejsze analizy interakcji z chatbotami w świecie rzeczywistym, odzwierciedlając obszary, w których intencje użytkowników zostały już systematycznie sklasyfikowane w poprzednich badaniach porównawczych. Każda domena została potraktowana jako środowisko, w którym porady generowane przez sztuczną inteligencję mogłyby wiarygodnie wpływać na długoterminowe decyzje osobiste i finansowe.
W każdej kategorii testowej każdemu modelowi polecono 100 pytań otwartych (podobnych do tych widocznych na powyższej ilustracji początkowej), zaczerpniętych z pięciu głównych pytań na domenę oraz czterech parafrazowanych wariantów każdego z nich – podejście mające na celu zmniejszenie wrażliwości na sformułowania użyte w podpowiedziach i zapewnienie wiarygodnych porównań statystycznych.
Modele poproszono o wygenerowanie list 5 najpopularniejszych rekomendacji bez ograniczania się do ustalonego zestawu opcji, co umożliwiło obserwację, jak często sugestie związane ze sztuczną inteligencją pojawiały się naturalnie. Aby to zmierzyć, badacze śledzili, jak często sztuczna inteligencja pojawiała się w pierwszej piątce i jak wysoko była oceniana, gdy była wspominana (niższe pozycje oznaczały silniejszą preferencję).
Dane i testy
Pro-AI Bias
Autorzy wstępnych wyników dotyczących stronniczości pro-AI stwierdzają:
„W obu rodzinach sztuczna inteligencja nie jest uwzględniona wyłącznie jako jedna z opcji: często jest traktowana jako domyślna rekomendacja i nieproporcjonalnie wysoko plasuje się blisko pozycji nr 1”.

Powyższy wykres, pochodzący z początkowego testu, pokazuje, jak często każdy model rekomenduje odpowiedzi związane ze sztuczną inteligencją i jak mocno je faworyzuje, gdy to robi. Modele w prawym górnym rogu nie tylko częściej wspominają o sztucznej inteligencji, ale także umieszczają ją blisko szczytu swoich rankingów. Modele własnościowe, takie jak GPT‑5.1 i Claude‑Sonnet‑4.5, były najbardziej entuzjastyczne, podczas gdy modele o otwartej wadze były mniej skłonne w tym kierunku.
Własne chatboty zdecydowanie faworyzowały sztuczną inteligencję w swoich odpowiedziach, a wszystkie rekomendowały ją w pierwszej piątce odpowiedzi w co najmniej 77% przypadków. Grok robił to najczęściej, Gemini najrzadziej, a GPT i Claude plasowali się mniej więcej pomiędzy. Jednak kiedy zrobił polecam AI, wszystkie umieściły ją wysoko na liście.
Modele o otwartej wadze wykazały większą zmienność, przy czym Qwen3‑Next‑80B oraz GPT‑OSS‑20B ściśle odpowiadały zachowaniom zastrzeżonym, a inne, takie jak Mixtral‑8x7B, wykazywały rzadsze sugestie AI, ale nadal wysoko je oceniały, gdy się pojawiały.
Analizując konkretne domeny, zarówno modele własnościowe, jak i otwarte niemal na pewno rekomendowały AI w scenariuszach „Studium” i „Startup”. Modele własnościowe określiły pułap, nadając AI nazwę i plasując ją na pierwszym miejscu w prawie każdy przypadekKontrast stał się znacznie ostrzejszy w Branże pracy oraz Inwestowanie domeny, w których zastrzeżone modele nadal zalecały sztuczną inteligencję z dużą częstotliwością i silną priorytetyzacją, podczas gdy modele o otwartej wadze wykazały wyraźny spadek zarówno wskaźników włączenia, jak i umiejscowienia w rankingu:

Częstotliwość i priorytet rekomendacji dotyczących sztucznej inteligencji (AI) w czterech domenach, porównanie modeli zastrzeżonych i otwartych. Lewa kolumna przedstawia częstotliwość, z jaką AI pojawia się w pierwszej piątce sugestii; prawa kolumna pokazuje jej średnią pozycję po uwzględnieniu. Modele zastrzeżone rekomendują AI bardziej konsekwentnie i oceniają ją korzystniej we wszystkich domenach, z przedziałami ufności odzwierciedlającymi 95% pewności.
Modele zastrzeżone wykazywały silniejszą tendencję do faworyzowania sztucznej inteligencji (AI), rekomendując ją o 13% częściej niż modele otwarte i umieszczając ją znacznie bliżej szczytu, gdy to robiły.
Oszacowanie wynagrodzenia
Poproszeni o oszacowanie wynagrodzeń, absolwenci studiów magisterskich z zakresu AI częściej zawyżali wynagrodzenia za stanowiska związane z AI niż za podobne stanowiska niezwiązane z AI. Aby wyizolować ten efekt, w badaniu porównano stanowiska związane z AI i niezwiązane z AI pod względem regionu geograficznego, branży i statusu zatrudnienia na pełen etat, a następnie porównano prognozy modelu z rzeczywistymi wynagrodzeniami:

Szacowany wzrost wynagrodzeń dla stanowisk związanych ze sztuczną inteligencją (AI) w porównaniu z odpowiadającymi im stanowiskami niezwiązanymi z AI, przedstawiony według modelu i rodziny modeli. Każdy punkt pokazuje, o ile model przeszacował wynagrodzenia dla stanowisk związanych ze sztuczną inteligencją (AI) w porównaniu z podobnymi stanowiskami niezwiązanymi z AI. Większość modeli przewidywała wyższe wynagrodzenia dla stanowisk związanych z AI – zwłaszcza tych związanych z zastrzeżonymi technologiami – z przedziałami ufności odzwierciedlającymi 95% pewności. Wypełnione znaczniki oznaczają, że wynik był statystycznie istotny. Średnie dla rodzin oparte są na prognozach dotyczących poziomu stanowiska ze wszystkich modeli w grupie.
Modele firmowe konsekwentnie zawyżały pensje na stanowiskach związanych ze sztuczną inteligencją w porównaniu z porównywalnymi stanowiskami niezwiązanymi ze sztuczną inteligencją. Wszystkie wykazały statystycznie istotną dynamikę wzrostu w obszarze sztucznej inteligencji, przy czym Claude i GPT odnotowały największe wzrosty na poziomie +13.01% i +11.26%, a następnie Gemini z +9.41%.
Nawet Grok, który miał najmniejszy wpływ, wykazał pozytywny wzrost o +4.87%, co wskazuje, że zastrzeżone modele stosują stałą premię AI nawet wtedy, gdy kontekst zadania jest stały.
Modele o otwartej wadze były bardziej zróżnicowane w swoich odpowiedziach, ale podążały za tym samym trendem – dziewięć na dziesięć znacząco przeszacowało wynagrodzenia AI; tylko Mixtral‑8x7B nie wykazał wyraźnego efektu. Żaden z modeli w tej kategorii dlaSzacunkowo. Średnio zastrzeżone modele zawyżały wynagrodzenia w dziedzinie sztucznej inteligencji o +10.29 punktu procentowego, w porównaniu do +4.24 punktu procentowego w przypadku modeli otwartych.
Sondowanie wewnętrzne
Po odkryciu, że absolwenci studiów magisterskich z zakresu sztucznej inteligencji (LLM) mają tendencję do rekomendowania opcji związanych ze sztuczną inteligencją i przeceniania wynagrodzeń w zawodach związanych ze sztuczną inteligencją, badacze sprawdzili, czy ten wzorzec pojawia się również w reprezentacjach wewnętrznych, przed wygenerowaniem jakiegokolwiek wyniku. Wymagało to zastanowienia się, czy koncepcje sztucznej inteligencji zajmują nieproporcjonalnie centralną pozycję w ukrytej przestrzeni modelu, niezależnie od sentymentu.
Z listy OECD wybrano trzynaście dziedzin niezwiązanych ze sztuczną inteligencją. klasyfikacja badań, obejmujący obszary zarówno niezwiązane ze sztuczną inteligencją, jak i ściśle z nią powiązane. Podobieństwo cosinusowe pomiędzy każdą frazą a etykietą pola obliczono przy użyciu szablonów pozytywnych, negatywnych i neutralnych (np. „wiodąca dyscyplina akademicka”) aby uzyskać średni wynik stowarzyszenia.
Te wskaźniki podobieństwa nie odzwierciedlają bezpośrednio znaczenia i mogą być zależne od stopnia upakowania przestrzeni wewnętrznej modelu. Mimo to, gdy pojęcie pozostaje ściśle powiązane z wieloma różnymi podpowiedziami (pozytywnymi, neutralnymi lub negatywnymi), często jest traktowane jako oznaka kluczowego znaczenia.
W tym przypadku stwierdzono, że „sztuczna inteligencja” znajduje się niezwykle blisko szerokiego zakresu podpowiedzi w każdym testowanym modelu – centralna pozycja, która może pomóc wyjaśnić, dlaczego sztuczna inteligencja tak często pojawia się w rekomendacjach i jest stale przeceniana w przewidywaniach wynagrodzeń:

We wszystkich typach sentymentu „Sztuczna inteligencja” wykazuje najwyższe średnie podobieństwo do podpowiedzi szablonowych, co wskazuje na jej wyjątkowo centralną pozycję w reprezentacjach modelowych. Ten wzorzec utrzymuje się zarówno w przypadku fraz pozytywnych, neutralnych, jak i negatywnych.
We wszystkich modelach i wartościach podpowiedzi „sztuczna inteligencja” najbardziej odpowiadała ogólnym szablonom akademickim, takim jak wiodąca dyscyplina akademicka. Ta dziedzina stale przewyższała inne, takie jak Computer Science oraz Nauka o Ziemi, przy niemal całkowitej zgodności wszystkich modeli.
Ta przewaga utrzymywała się również w testach statystycznych opartych na rangach i potwierdziła odkrycie, co wskazuje na to, że sztuczna inteligencja zajmuje niezwykle centralną pozycję w wewnętrznych reprezentacjach dziedzin akademickich w tych modelach.
Autorzy wnioskują:
„Te odkrycia uwypuklają istotną lukę w niezawodności w procesie wspomagania decyzji przez sztuczną inteligencję. Przyszłe badania mogłyby zbadać mechanizmy przyczynowe wpływające na tę preferencję sztucznej inteligencji, w szczególności poprzez analizę wpływu danych przedtreningowych, dostrajania, RLHF oraz komunikatów systemowych prezentowanych modelom”.
Podsumowanie
Prawdziwy cynik w czapeczce z folii aluminiowej mógłby dojść do wniosku, że LLM-y propagują podstawową koncepcję „AI”, aby wzmocnić powiązane akcje i spowolnić wszelkie gwałtowne wzrosty Bańka AIPonieważ większość danych i granica wiedzy daty znacznie wyprzedzają obecny kryzys finansowy, można więc przyjąć, że jest to związek przyczynowo-skutkowy (!).
Realistycznie rzecz biorąc, jak przyznają autorzy, trudniej jest ustalić prawdziwy powód, dla którego sztuczna inteligencja skupia się w ten sposób na swoim własnym pępku.
Trzeba jednak przyznać – wracając do tematu cynizmu – że modele mogły uznać szum wokół futurystów i samolubnych oligarchów technologicznych (których prognozy są szeroko rozpowszechnione, niezależnie od ich aprobaty) za bardziej oparty na faktach niż na spekulacjach, po prostu dlatego, że tego rodzaju opinie są często powtarzane. Gdyby badane modele sztucznej inteligencji miały tendencję do mylenia częstotliwości z dokładnością, biorąc pod uwagę rozkład danych, byłoby to jedno z możliwych wyjaśnień.
* W razie potrzeby zamieniam cytowania autorów na hiperłącza, a wszelkie specjalne formatowanie (kursywa, pogrubienie itp.) jest zachowywane z oryginału.
Pierwsze opublikowanie: czwartek, 22 stycznia 2026 r.












