Зв'язатися з нами

Занепокоєння щодо потенційних ризиків ChatGPT набирає обертів, але чи є пауза на штучному інтелекті хорошим кроком?

Лідери думок

Занепокоєння щодо потенційних ризиків ChatGPT набирає обертів, але чи є пауза на штучному інтелекті хорошим кроком?

mm

Хоча Ілон Маск та інші світові технологічні лідери закликали до пауза в AI Після випуску ChatGPT деякі критики вважають, що зупинка розробки не є вирішенням. Евангеліст штучного інтелекту Ендрю Пері з компанії інтелектуальної автоматизації ABBYY вважає, що зробити перерву – це все одно, що повернути зубну пасту в тюбик. Тут він розповідає нам, чому…

Програми штучного інтелекту широко поширені, впливаючи практично на всі аспекти нашого життя. Хоча це похвально, але гальмувати зараз може бути неправдоподібним.

Існують, безумовно, відчутні побоювання, які вимагають посилення регулятивного нагляду, щоб керувати потенційними шкідливими наслідками.

Нещодавно Управління із захисту даних Італії тимчасово заблокувало використання ChatGPT по всій країні через проблеми конфіденційності, пов’язані зі способом збору та обробки персональних даних, які використовуються для навчання моделі, а також через очевидну відсутність гарантій, наражаючи дітей на відповіді «абсолютно не відповідає їхньому віку та обізнаності».

Європейська організація споживачів (BEUC) закликає ЄС дослідити потенційний шкідливий вплив великомасштабних мовних моделей, враховуючи, що «зростає занепокоєння щодо того, як ChatGPT і подібні чат-боти можуть обманювати людей і маніпулювати ними. Ці системи штучного інтелекту потребують більшого громадського контролю, і державні органи повинні відновити контроль над ними».

У США, Центр ШІ та цифрової політики подав скаргу до Федеральної торгової комісії про те, що ChatGPT порушує розділ 5 Закону про Федеральну торгову комісію (FTC Act) (15 USC 45). Основою скарги є те, що ChatGPT нібито не відповідає керівництво встановлено FTC для прозорості та зрозумілості систем ШІ. Було зроблено посилання на визнання ChatGPT кількох відомих ризики зокрема порушення прав на конфіденційність, створення шкідливого вмісту та поширення дезінформації.

Корисність великомасштабних мовних моделей, таких як ChatGPT, незважаючи на дослідження, вказує на їхній потенціал темна сторона. Доведено, що він дає неправильні відповіді, оскільки базова модель ChatGPT базується на алгоритмах глибокого навчання, які використовують великі набори навчальних даних з Інтернету. На відміну від інших чат-ботів, ChatGPT використовує мовні моделі, засновані на техніках глибокого навчання, які генерують текст, подібний до людських розмов, а платформа «приходить до відповіді, роблячи серію припущень, що частково є причиною, чому вона може аргументувати неправильні відповіді, ніби вони були абсолютно правдивими».

Крім того, доведено, що ChatGPT підкреслює та посилює упередженість, що призводить до «відповідей, які дискримінують стать, расу та групи меншин, те, що компанія намагається пом’якшити». ChatGPT також може бути справжнім золотом для зловмисників, які можуть використовувати нічого не підозрюючих користувачів, ставлячи під загрозу їхні недоторканність приватного життя і піддавати їх впливу шахрайські атаки.

Ці побоювання спонукали Європейський парламент опублікувати a коментар що посилює необхідність подальшого посилення поточних положень проекту Закон ЄС про штучний інтелект, (AIA), яка все ще очікує на ратифікацію. У коментарі вказується, що поточний проект запропонованого регламенту зосереджений на тому, що називається вузьким додатком ШІ, що складається з конкретних категорій систем ШІ з високим ризиком, таких як наймання, кредитоспроможність, працевлаштування, правоохоронна діяльність і право на соціальні послуги. Однак проект регламенту AIA ЄС не охоплює штучний інтелект загального призначення, наприклад, великі мовні моделі, які забезпечують розширені когнітивні можливості та можуть «виконувати широкий спектр інтелектуальних завдань». Існують заклики розширити сферу дії проекту постанови, щоб включити окрему категорію високого ризику систем штучного інтелекту загального призначення, вимагаючи від розробників проведення ретельного попереднього тестування на відповідність перед розміщенням таких систем на ринку та постійного моніторингу їх ефективності протягом можливі несподівані шкідливі результати.

Особливо корисна частина дослідження звертає увагу на цю прогалину, оскільки нормативні документи ЄС AIA «головним чином зосереджені на звичайних моделях ШІ, а не на новому поколінні, свідками народження якого ми є сьогодні».

Він рекомендує чотири стратегії, які регулятори повинні розглянути.

  1. Вимагати від розробників таких систем регулярного звітування про ефективність їхніх процесів управління ризиками для пом’якшення шкідливих результатів.
  2. Підприємства, які використовують широкомасштабні мовні моделі, повинні бути зобов’язані повідомляти своїм клієнтам, що контент був створений ШІ.
  3. Розробники повинні підписатися на офіційний процес поетапного випуску, як частину системи управління ризиками, призначеної для захисту від потенційно непередбачуваних шкідливих наслідків.
  4. Покладіть на розробників обов’язок «пом’якшити ризик у його корінні» шляхом «активної перевірки набору навчальних даних на наявність спотворень».

Фактором, який увічнює ризики, пов’язані з революційними технологіями, є прагнення інноваторів досягти переваги першоджерела шляхом прийняття бізнес-моделі «спочатку відправляти, а потім ремонтувати». Тоді як OpenAI дещо прозорий Щодо потенційних ризиків ChatGPT, вони випустили його для широкого комерційного використання з обов’язком «остерігайтеся покупців» від користувачів, щоб вони самі зважували та приймали на себе ризики. Це може бути неприйнятним підходом, враховуючи повсюдний вплив розмовних систем ШІ. Проактивне регулювання в поєднанні з жорсткими заходами примусу має бути першорядним у роботі з такою проривною технологією.

Штучний інтелект уже пронизує майже кожну частину нашого життя, а це означає, що пауза в розробці штучного інтелекту може спричинити за собою безліч непередбачуваних перешкод і наслідків. Замість того, щоб раптово нарощувати перерви, галузь і законодавчі учасники повинні сумлінно співпрацювати, щоб прийняти дієве регулювання, яке ґрунтується на людських цінностях, таких як прозорість, підзвітність і справедливість. Посилаючись на чинне законодавство, таке як AIA, лідери приватного та державного секторів можуть розробити ретельні, глобально стандартизовані політики, які запобігатимуть нечесному використанню та пом’якшуватимуть несприятливі наслідки, утримуючи таким чином штучний інтелект у межах покращення людського досвіду.

Ендрю Пері є проповідником етики штучного інтелекту в глобальній компанії інтелектуальної автоматизації АББІ. Він має ступінь магістра права з відзнакою Прітцкерівської школи Північно-Західного університету та є сертифікованим спеціалістом з конфіденційності даних. Пері має більш ніж 25-річний досвід управління програмами технологічного менеджменту для провідних світових технологічних компаній. Його досвід пов’язаний з інтелектуальною автоматизацією процесів документообігу та інтелектуальним аналізом процесів, зокрема з технологіями ШІ, прикладним програмним забезпеченням, конфіденційністю даних та етикою ШІ.