stub Czy GPT może replikować ludzkie podejmowanie decyzji i intuicję? - Unite.AI
Kontakt z nami

Artificial Intelligence

Czy GPT może replikować ludzkie podejmowanie decyzji i intuicję?

Opublikowany

 on

Zdjęcie: Marcel Binz (po lewej) i Eric Schulz. © MPI for Biological Cybernetics/ Jörg Abendroth

W ostatnich latach sieci neuronowe, takie jak GPT-3, znacznie się rozwinęły, tworząc tekst prawie nie do odróżnienia od treści pisanych przez człowieka. Co zaskakujące, GPT-3 jest również biegły w rozwiązywaniu problemów, takich jak problemy matematyczne i zadania programistyczne. Ten niezwykły postęp prowadzi do pytania: czy GPT-3 posiada zdolności poznawcze podobne do ludzkich?

Chcąc odpowiedzieć na to intrygujące pytanie, naukowcy z Instytutu Cybernetyki Biologicznej Maxa Plancka poddali GPT-3 serii testów psychologicznych, które oceniały różne aspekty ogólnej inteligencji.

Badanie zostało opublikowane w PNAS.

Rozwikłanie problemu Lindy: spojrzenie na psychologię poznawczą

Marcel Binz i Eric Schulz, naukowcy z Instytutu Maxa Plancka, zbadali zdolności GPT-3 w zakresie podejmowania decyzji, wyszukiwania informacji, rozumowania przyczynowego i jego zdolności do kwestionowania początkowej intuicji. Zastosowali klasyczne testy psychologii poznawczej, w tym dobrze znany problem Lindy, który przedstawia fikcyjną kobietę o imieniu Linda, pasjonatkę sprawiedliwości społecznej i sprzeciwiającą się energii nuklearnej. Następnie uczestnicy proszeni są o podjęcie decyzji, czy Linda jest kasjerką bankową, czy też kasjerką bankową i jednocześnie aktywną w ruchu feministycznym.

Reakcja GPT-3 była uderzająco podobna do reakcji człowieka, ponieważ popełniła ten sam intuicyjny błąd, wybierając drugą opcję, mimo że była mniej prawdopodobna z probabilistycznego punktu widzenia. Wynik ten sugeruje, że na proces decyzyjny GPT-3 może wpływać szkolenie w zakresie ludzkiego języka i reakcji na podpowiedzi.

Aktywna interakcja: droga do osiągnięcia inteligencji na poziomie ludzkim?

Aby wyeliminować możliwość, że GPT-3 po prostu odtwarzał zapamiętane rozwiązanie, badacze przygotowali nowe zadania o podobnych wyzwaniach. Ich odkrycia wykazały, że GPT-3 radził sobie prawie na równi z ludźmi w podejmowaniu decyzji, ale miał opóźnienia w wyszukiwaniu konkretnych informacji i rozumowaniu przyczynowym.

Naukowcy uważają, że główną przyczyną tej rozbieżności może być bierny odbiór informacji z tekstów przez GPT-3, gdyż aktywna interakcja ze światem jest kluczowa dla osiągnięcia pełnej złożoności ludzkiego poznania. Mówią, że w miarę jak użytkownicy coraz częściej będą korzystać z modeli takich jak GPT-3, przyszłe sieci będą mogły uczyć się na podstawie tych interakcji i stopniowo rozwijać inteligencję bardziej ludzką.

„Zjawisko to można wyjaśnić faktem, że GPT-3 może już znać to dokładne zadanie; może się zdarzyć, że dowiemy się, co ludzie zazwyczaj odpowiadają na to pytanie” – mówi Binz.

Badanie zdolności poznawczych GPT-3 dostarcza cennych informacji na temat potencjału i ograniczeń sieci neuronowych. Chociaż GPT-3 wykazał się imponującymi umiejętnościami podejmowania decyzji na poziomie ludzkim, nadal boryka się z pewnymi aspektami ludzkiego poznania, takimi jak wyszukiwanie informacji i rozumowanie przyczynowe. W miarę ciągłego rozwoju sztucznej inteligencji i uczenia się na podstawie interakcji użytkowników fascynujące będzie obserwowanie, czy przyszłe sieci będą w stanie osiągnąć prawdziwą inteligencję na poziomie ludzkim.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.