Лідери думок
Як операціоналізувати етику штучного інтелекту?

Штучний інтелект полягає в оптимізації процесів, а не в усуненні людей з них. Відповідальність залишається важливою в загальній ідеї, що штучний інтелект може замінити людей. Хоча технології та автоматизовані системи допомогли нам досягти кращих економічних результатів у минулому столітті, чи можуть вони справді замінити послуги, творчість та глибокі знання? Я все ще вважаю, що вони не можуть, але вони можуть оптимізувати час, витрачений на розвиток цих областей.
Відповідальність сильно залежить від прав інтелектуальної власності, передбачення впливу технологій на колективні та індивідуальні права, а також забезпечення безпеки та захисту даних, використовуваних під час навчання та обміну при розробці нових моделей. Коли ми продовжимо просування в технологіях, тема етики штучного інтелекту стала все більш актуальною. Це піднімає важливі питання про те, як ми регулюємо та інтегруємо штучний інтелект у суспільство, мінімізуючи потенційні ризики.
Я працюю в тісній співпраці з однією стороною штучного інтелекту – клонуванням голосу. Голос є важливою частиною подоби людини та біометричних даних, використовуваних для навчання моделей голосу. Захист подоби (правові та політичні питання), забезпечення безпеки голосових даних (політики конфіденційності та кібербезпека) та встановлення меж застосування клонування голосу (етичні питання, що вимірюють вплив) є важливими для розгляду під час побудови продукту.
Ми повинні оцінити, як штучний інтелект узгоджується з нормами та цінностями суспільства. Штучний інтелект повинен бути адаптований до існуючого етичного каркаса суспільства, забезпечуючи, щоб він не вводить додаткові ризики або не загрожує встановленим суспільним нормам. Вплив технологій охоплює області, де штучний інтелект наділяє одну групу людей, усуваючи інших. Це існує на кожному етапі нашого розвитку та зростання чи занепаду суспільства. Чи може штучний інтелект вводити більше дезінформації в інформаційні екосистеми? Так. Як ми керуюємо цим ризиком на рівні продукту, і як ми вчимо користувачів та політиків про це? Відповіді лежать не в самих небезпеках технологій, а в тому, як ми упаковуємо їх у продукти та послуги. Якщо у нас немає достатньої кількості працівників у командах продукту, щоб дивитися за межами та оцінювати вплив технологій, ми будемо застрягнути в циклі виправлення хаосу.
Інтеграція штучного інтелекту у продукти піднімає питання про безпеку продукту та запобігання шкоди, пов’язаній зі штучним інтелектом. Розробка та впровадження штучного інтелекту повинні ставити на перше місце питання безпеки та етичних考虑, що вимагає виділення ресурсів відповідним командам.
Щоб сприяти виникненню дискусії про операціоналізацію етики штучного інтелекту, я пропоную цей базовий цикл для того, щоб зробити штучний інтелект етичним на рівні продукту:
1. Дослідити правові аспекти штучного інтелекту та те, як ми регулюємо його, якщо існують регулювання. Це включає в себе закон ЄС про штучний інтелект, закон про цифрові послуги, закон Великої Британії про онлайн-безпеку та GDPR щодо конфіденційності даних. Каркаси є роботами в прогресі та потребують внеску від лідерів галузі (емерджентної технології) та лідерів. Див. пункт (4), який завершує запропонований цикл.
2. Розглянути, як ми адаптуємо продукти, засновані на штучному інтелекті, до норм суспільства без введення додаткових ризиків. Чи це впливає на інформаційну безпеку або сектор зайнятості, чи це порушує авторські права та права інтелектуальної власності? Створити матрицю кризових сценаріїв. Я витягую це з мого міжнародного досвіду безпеки.
3. Визначити, як інтегрувати вище зазначене у продукти, засновані на штучному інтелекті. Коли штучний інтелект стає все більш складним, ми повинні забезпечити, щоб він узгоджувався з цінностями та нормами суспільства. Ми повинні бути проактивними в розгляді етичних考虑 та інтеграції їх у розвиток та впровадження штучного інтелекту. Якщо продукти, засновані на штучному інтелекті, такі як генеративний штучний інтелект, загрожують поширювати більше дезінформації, ми повинні вводити функції мінімізації, модерації, обмеження доступу до основної технології та спілкування з користувачами. Це важливо мати команди з етики штучного інтелекту та безпеки у продуктах, заснованих на штучному інтелекті, що вимагає ресурсів та бачення компанії.
Розглянути, як ми можемо внесли свій внесок у правові каркаси та сформувати їх. Найкращі практики та політичні каркаси не є порожніми словами, а досить практичними інструментами, які допомагають новій технології функціонувати як допоміжним інструментам, а не як загрозам. Зібрання політиків, дослідників, великої технології та емерджентної технології в одному приміщенні є важливим для балансування суспільних та бізнес-інтересів навколо штучного інтелекту. Правові каркаси повинні адаптуватися до емерджентної технології штучного інтелекту. Ми повинні забезпечити, щоб ці каркаси захищали окремих людей та суспільство, а також сприяли інноваціям та прогресу.
Резюме
Це є справжнім базовим колом інтеграції технологій, заснованих на штучному інтелекті, у наші суспільства. Коли ми продовжимо боротьбу з складностями етики штучного інтелекту, це важливо залишатися прив’язаними до пошуку рішень, які ставлять на перше місце безпеку, етику та добробут суспільства. І ці слова не є порожніми словами, а важкою роботою з складання всіх пазлів щодня.
Ці слова засновані на моїх власних досвіді та висновках.












