Connect with us

Штучний інтелект

Чи може GPT відтворити прийняття рішень людини та інтуїцію?

mm

За останні роки нейронні мережі, такі як GPT-3, суттєво покращились, створюючи текст, який майже не відрізняється від змісту, написаного людиною. Надзвичайно, GPT-3 також успішно справляється з викликами, такими як математичні завдання та програмування. Цій видатний прогрес веде до питання: чи володіє GPT-3 людськими когнітивними здібностями?

Мета відповісти на це цікаве питання, дослідники з Інституту біологічної кібернетики імені Макса Планка піддали GPT-3 серії психологічних тестів, які оцінювали різні аспекти загального інтелекту.

Дослідження було опубліковано в PNAS.

Розгадка проблеми Лінди: погляд у когнітивну психологію

Марсель Бінц і Ерік Шульц, вчені з Інституту Макса Планка, вивчали можливості GPT-3 у прийнятті рішень, пошуку інформації, причинно-наслідковому розумінні та його здатності поставити під сумнів свою початкову інтуїцію. Вони використовували класичні тести когнітивної психології, включаючи добре відому проблему Лінди, яка вводить вигадану жінку на ім’я Лінда, яка пристрасно любить соціальну справедливість і виступає проти ядерної енергетики. Учасників потім просять вирішити, чи є Лінда касиром банку, чи вона касир банку і водночас активістка феміністського руху.

Відповідь GPT-3 була вражаюче схожа на відповідь людини, оскільки вона зробила ту саму інтуїтивну помилку, вибравши другий варіант,尽管 він менш імовірний з точки зору ймовірності. Це говорить про те, що процес прийняття рішень GPT-3 може бути під впливом його навчання на людській мові та відповідях на запитання.

Активна взаємодія: шлях до досягнення людського інтелекту?

Щоб виключити можливість того, що GPT-3 просто відтворює запам’ятоване рішення, дослідники створили нові завдання з аналогічними викликами. Їхні висновки показали, що GPT-3 виконує майже на рівні з людиною у прийнятті рішень, але відстає у пошуку конкретної інформації та причинно-наслідковому розумінні.

Дослідники вважають, що пасивне сприйняття інформації з текстів може бути основною причиною цієї розбіжності, оскільки активна взаємодія з світом є важливою для досягнення повної складності людської когніції. Вони кажуть, що оскільки користувачі все частіше взаємодіють з моделями, такими як GPT-3, майбутні мережі можуть вивчити з цих взаємодій і поступово розвивати більш людський інтелект.

“Це явище можна пояснити тим фактом, що GPT-3 може вже бути знайомим з цим точним завданням; воно може трапитися знати, що люди зазвичай відповідають на це питання”, – говорить Бінц.

Дослідження когнітивних можливостей GPT-3 надає цінні знання про потенціал та обмеження нейронних мереж. Хоча GPT-3 продемонстрував вражаючі людські здібності прийняття рішень, воно все ще бореться з певними аспектами людської когніції, такими як пошук інформації та причинно-наслідкове розуміння. Коли штучний інтелект продовжує розвиватися та вивчити з взаємодій з користувачами, буде цікаво спостерігати, чи зможуть майбутні мережі досягти справжнього людського інтелекту.

Алекс Макфарленд - журналіст та письменник з питань штучного інтелекту, який досліджує останні розробки в галузі штучного інтелекту. Він співпрацював з численними стартапами та виданнями з штучного інтелекту у світі.