заглушки Прозорість штучного інтелекту та потреба в моделях з відкритим вихідним кодом - Unite.AI
Зв'язатися з нами

Лідери думок

Прозорість ШІ та потреба в моделях з відкритим кодом

mm
оновлений on

Щоб захистити людей від потенційної шкоди штучного інтелекту, деякі регулюючі органи в Сполучених Штатах і Європейському Союзі все більше виступають за контроль і систему стримувань і противаг щодо потужності моделей ШІ з відкритим кодом. Це частково мотивовано бажанням великих корпорацій контролювати розробку штучного інтелекту та формувати розвиток штучного інтелекту так, щоб це приносило їм користь. Регулятори також стурбовані темпами розвитку штучного інтелекту, оскільки вони стурбовані тим, що штучний інтелект розвивається надто швидко та не вистачає часу, щоб запровадити гарантії, щоб запобігти його використанню в зловмисних цілях.

Білль про права AI та NIST AI Risk Management Framework в США разом з Закон ЄС про ШІ, підтримують різні принципи, такі як точність, безпека, недискримінація, безпека, прозорість, підзвітність, пояснюваність, інтерпретація та конфіденційність даних. Крім того, як ЄС, так і США очікують, що організації зі стандартизації, урядові чи міжнародні, відіграватимуть вирішальну роль у створенні керівних принципів для ШІ.

У світлі цієї ситуації вкрай важливо прагнути до майбутнього, яке охоплює прозорість і можливість перевіряти та контролювати системи ШІ. Це дозволить розробникам у всьому світі ретельно досліджувати, аналізувати та покращувати ШІ, особливо зосереджуючись на навчальних даних і процесах.

Щоб успішно забезпечити прозорість штучного інтелекту, ми повинні зрозуміти алгоритми прийняття рішень, які лежать в його основі, таким чином розгадавши підхід «чорної скриньки» штучного інтелекту. Моделі з відкритим кодом і доступні для перевірки відіграють невід’ємну роль у досягненні цієї мети, оскільки вони надають доступ до основного коду, архітектури системи та навчальних даних для перевірки та аудиту. Ця відкритість сприяє співпраці, стимулює інновації та захищає від монополізації.

Щоб стати свідками реалізації цього бачення, важливо сприяти змінам політики, ініціативам на низовій основі та заохочувати активну участь усіх зацікавлених сторін, включаючи розробників, корпорації, уряди та громадськість.

Поточний стан штучного інтелекту: концентрація та контроль

В даний час розвиток ШІ, особливо щодо великі мовні моделі (LLM), в основному централізований і контролюється великими корпораціями. Така концентрація влади викликає занепокоєння щодо можливого зловживання та викликає запитання щодо рівноправного доступу та справедливого розподілу вигод від досягнень ШІ.

Зокрема, у таких популярних моделях, як LLM, відсутні альтернативи з відкритим вихідним кодом під час навчального процесу через необхідні великі обчислювальні ресурси, які зазвичай доступні лише для великих компаній. Тим не менш, навіть якщо ця ситуація залишиться незмінною, забезпечення прозорості щодо даних і процесів навчання має вирішальне значення для полегшення контролю та підзвітності.

Нещодавнє запровадження OpenAI системи ліцензування для певних типів штучного інтелекту викликало побоювання та занепокоєння щодо регуляторного захоплення, оскільки це може вплинути не лише на траєкторію ШІ, але й на ширші соціальні, економічні та політичні аспекти.

Потреба в прозорому ШІ

Уявіть собі, що ви покладаєтеся на технологію, яка приймає вагомі рішення щодо людського/особистого життя, але не залишає жодних навігаційних слідів, жодного розуміння обґрунтування цих висновків. Тут прозорість стає необхідною.

Перш за все, прозорість має вирішальне значення та створює довіру. Коли моделі ШІ стають доступними для спостереження, вони вселяють впевненість у їх надійність і точність. Крім того, така прозорість дозволить розробникам і організаціям набагато більше відповідати за результати своїх алгоритмів.

Іншим критичним аспектом прозорості є виявлення та пом’якшення алгоритмічної зміщеності. Зміщення можна впровадити в моделі ШІ декількома способами.

  • Людський елемент: дослідники обробки даних вразливі до того, щоб зберегти власні упередження в моделях.
  • Машинне навчання: навіть якби вчені створювали суто об’єктивний ШІ, моделі все одно дуже сприйнятливі до упередженості. Машинне навчання починається з певного набору даних, але потім стає вільним для поглинання нових даних і створення нових шляхів навчання та нових висновків. Ці результати можуть бути ненавмисними, упередженими або неточними, оскільки модель намагається розвиватися самостійно в так званому «дрейфі даних».

Важливо знати про ці потенційні джерела упередженості, щоб їх можна було виявити та пом’якшити. Один із способів виявити упередженість — перевірити дані, використані для навчання моделі. Це включає пошук моделей, які можуть вказувати на дискримінацію або несправедливість. Ще один спосіб пом’якшити упередження – це використовувати методи усунення упереджень. Ці методи можуть допомогти усунути або зменшити зміщення моделі. Прозоро ставлячись до потенційної упередженості та вживаючи заходів для її пом’якшення, ми можемо допомогти забезпечити чесне та відповідальне використання ШІ.

Прозорі моделі штучного інтелекту дозволяють дослідникам і користувачам перевіряти навчальні дані, виявляти упередження та вживати заходів для їх усунення. Роблячи процес прийняття рішень видимим, прозорість допомагає нам прагнути до справедливості та запобігати поширенню дискримінаційної практики. Крім того, прозорість необхідна протягом усього життя моделі, як пояснювалося вище, щоб запобігти дрейфу даних, упередженості та галюцинаціям ШІ, які створюють неправдиву інформацію. Ці галюцинації особливо поширені у великих мовних моделях, але також існують у всіх формах продуктів ШІ. Спостережливість штучного інтелекту також відіграє важливу роль у забезпеченні продуктивності та точності моделей, створюючи безпечніший і надійніший штучний інтелект, який менш схильний до помилок або небажаних наслідків.

Однак досягнення прозорості в ШІ не позбавлене проблем. Для вирішення таких проблем, як конфіденційність даних, безпека та інтелектуальна власність, необхідний ретельний баланс. Це передбачає впровадження методів збереження конфіденційності, анонімізацію конфіденційних даних і встановлення галузевих стандартів і правил, які сприяють відповідальній практиці прозорості.

Втілення прозорого ШІ в реальність

Розробка інструментів і технологій, які можуть забезпечити можливість перевірки в ШІ, має вирішальне значення для сприяння прозорості та підзвітності в моделях ШІ.

На додаток до розробки інструментів і технологій, які забезпечують можливість перевірки ШІ, розвиток технологій також може сприяти прозорості, створюючи культуру навколо ШІ. Заохочення компаній і організацій до прозорості використання штучного інтелекту також може допомогти зміцнити довіру та впевненість. Полегшуючи перевірку моделей штучного інтелекту та створюючи культуру прозорості навколо штучного інтелекту, розвиток технологій може допомогти забезпечити чесне та відповідальне використання ШІ.

Однак розвиток технологій може мати й протилежний ефект. Наприклад, якщо технологічні компанії розробляють власні алгоритми, які не є відкритими для громадського контролю, це може ускладнити розуміння того, як ці алгоритми працюють, а також виявлення будь-яких потенційних упереджень або ризиків. Забезпечення того, щоб ШІ приносив користь суспільству в цілому, а не кільком вибраним, вимагає високого рівня співпраці.

Дослідники, політики та дослідники даних можуть встановлювати правила та стандарти, які встановлюють правильний баланс між відкритістю, конфіденційністю та безпекою, не стримуючи інновації. Ці правила можуть створювати рамки, які заохочують обмін знаннями, ураховуючи потенційні ризики та визначаючи очікування щодо прозорості та пояснюваності в критично важливих системах.

Усі сторони, пов’язані з розробкою та розгортанням штучного інтелекту, повинні надавати пріоритет прозорості, документуючи свої процеси прийняття рішень, надаючи доступ до вихідного коду та приймаючи прозорість як основний принцип у розробці систем ШІ. Це дає кожному можливість відіграти важливу роль у вивченні методів, щоб зробити алгоритми штучного інтелекту більш зручними для інтерпретації та розробці методів, які полегшують розуміння та пояснення складних моделей.

Нарешті, залучення громадськості є вирішальним у цьому процесі. Підвищуючи обізнаність і сприяючи громадським дискусіям щодо прозорості штучного інтелекту, ми можемо забезпечити відображення суспільних цінностей у розробці та розгортанні систем ШІ.

Висновок

Оскільки штучний інтелект все більше інтегрується в різні аспекти нашого життя, прозорість штучного інтелекту та використання моделей з відкритим кодом стають критичними міркуваннями. Застосування штучного інтелекту, який можна перевірити, не тільки забезпечує справедливість і підзвітність, але й стимулює інновації, запобігає концентрації влади та сприяє справедливому доступу до досягнень ШІ.

Віддаючи пріоритет прозорості, уможливлюючи ретельний аналіз моделей штучного інтелекту та сприяючи співпраці, ми можемо спільно формувати майбутнє штучного інтелекту, яке принесе користь усім, одночасно вирішуючи етичні, соціальні та технічні проблеми, пов’язані з цією трансформаційною технологією.

Ліран Хасон є співзасновником і генеральним директором Апорія, повноцінної платформи керування штучним інтелектом, яка використовується компаніями зі списку Fortune 500 і групами з обробки даних у всьому світі для забезпечення відповідального штучного інтелекту. Aporia легко інтегрується з будь-якою інфраструктурою машинного навчання. Будь то сервер FastAPI на основі Kubernetes, інструмент розгортання з відкритим кодом, як-от MLFlow, або платформа машинного навчання, як-от AWS Sagemaker.