Зв'язатися з нами

Нове дослідження показує, що люди можуть навчитися розпізнавати текст, створений машиною

Етика

Нове дослідження показує, що люди можуть навчитися розпізнавати текст, створений машиною

mm

Зростаюча складність і доступність штучного інтелекту (ШІ) викликали давнє занепокоєння щодо його впливу на суспільство. Останнє покоління чат-ботів лише посилило ці занепокоєння, побоюючись чесності ринку праці та поширення фейкових новин і дезінформації. З огляду на ці занепокоєння команда дослідників із Школи інженерії та прикладних наук Університету Пенсільванії намагалася надати користувачам технологій змогу зменшити ці ризики.

Навчіться розпізнавати текст штучним інтелектом

Їх рецензована стаття, представлений на зустрічі Асоціації з розвитку штучного інтелекту в лютому 2023 року, надає докази того, що люди можуть навчитися помічати різницю між текстом, створеним машиною, і текстом, написаним людиною.

Дослідження під керівництвом Кріса Каллісон-Берча, доцента кафедри комп’ютерних та інформаційних наук (CIS), разом із доктором філософії. студентів Ліама Дугана та Дафни Іпполіто, демонструє, що створений штучним інтелектом текст можна виявити.

«Ми показали, що люди можуть навчитися розпізнавати тексти, згенеровані машиною», — каже Каллісон-Берч. «Люди починають з певного набору припущень про те, які помилки допускатиме машина, але ці припущення не обов’язково є правильними. З часом, маючи достатньо прикладів та чіткі інструкції, ми можемо навчитися розпізнавати типи помилок, які машини роблять зараз».

У дослідженні використовуються дані, зібрані за допомогою «Справжній чи фальшивий текст?», оригінальної навчальної гри в Інтернеті. Ця навчальна гра перетворює стандартний експериментальний метод для досліджень виявлення на більш точне відтворення того, як люди використовують ШІ для створення тексту.

У стандартних методах учасників просять вказати так чи ні, чи створила машина заданий текст. Модель Пенна вдосконалює стандартне дослідження виявлення в ефективне навчальне завдання, демонструючи приклади, які починаються як написані людиною. Потім кожен приклад перетворюється на згенерований текст, просячи учасників позначити, де, на їхню думку, починається цей перехід. Учні визначають і описують ознаки тексту, які вказують на помилку, і отримують бали.

Результати дослідження

Результати дослідження показують, що учасники отримали значно кращі результати, ніж випадкова випадковість, що свідчить про те, що текст, створений ШІ, певною мірою можна виявити. Дослідження не лише окреслює обнадійливе, навіть захоплююче майбутнє для наших відносин зі штучним інтелектом, але також надає докази того, що люди можуть навчитися розпізнавати текст, створений машиною.

«Люди мають поважні причини хвилюватися щодо штучного інтелекту», — каже Каллісон-Берч. «Наше дослідження надає докази, які розвіюють ці тривоги. Як тільки ми зможемо спрямувати свій оптимізм щодо генераторів тексту на основі штучного інтелекту, ми зможемо приділити увагу здатності цих інструментів допомагати нам писати більш креативні та цікавіші тексти».

Дуган додає: «Є захоплюючі позитивні напрямки, у які ви можете просувати цю технологію. Люди зосереджені на тривожних прикладах, таких як плагіат і фейкові новини, але тепер ми знаємо, що можемо навчитися бути кращими читачами та письменниками».

Дослідження є важливим першим кроком у зменшенні ризиків, пов’язаних із машинним текстом. Оскільки штучний інтелект продовжує розвиватися, також повинна розвиватися наша здатність виявляти його вплив і керувати ним. Навчившись розпізнавати різницю між текстом, написаним людиною, і текстом, створеним машиною, ми можемо використовувати потужність штучного інтелекту для підтримки наших творчих процесів, одночасно зменшуючи ризики, пов’язані з цим.

Алекс МакФарланд — журналіст і письменник, що займається штучним інтелектом, досліджує останні розробки в галузі штучного інтелекту. Він співпрацював з численними стартапами та публікаціями зі штучного інтелекту по всьому світу.