Connect with us

Лідери думок

Прозорість штучного інтелекту та необхідність відкритих моделей

mm

Щоб захистити людей від потенційних шкод штучного інтелекту, деякі регулятори в Сполучених Штатах та Європейському Союзі все частіше відстоюють контроль та систему перевірок і балансів щодо влади відкритих моделей штучного інтелекту. Це частково мотивовано бажанням великих корпорацій контролювати розвиток штучного інтелекту та формувати розвиток штучного інтелекту таким чином, щоб він приносив їм користь. Регулятори також стурбовані темпом розвитку штучного інтелекту, оскільки вони бояться, що штучний інтелект розвивається занадто швидко і що немає достатнього часу для впровадження заходів безпеки, щоб запобігти його використання для зловмисних цілей.

Закон про права штучного інтелекту та_framework управління ризиками штучного інтелекту NIST у США, разом з актом про штучний інтелект ЄС, підтримують різні принципи, такі як точність, безпека, відсутність дискримінації, безпека, прозорість, підзвітність, пояснюваність, інтерпретація та захист даних. Крім того, як ЄС, так і США передбачають, що організації зі стандартизації, як державні, так і міжнародні, відіграють важливу роль у встановленні керівних принципів для штучного інтелекту.

У світлі цієї ситуації важливо прагнути до майбутнього, яке приймає прозорість та можливість інспектувати та контролювати системи штучного інтелекту. Це дозволить розробникам у всьому світі ретельно вивчити, проаналізувати та покращити штучний інтелект, особливо зосередившись на навчальних даних та процесах.

Щоб успішно привнести прозорість у штучний інтелект, нам потрібно зрозуміти алгоритми прийняття рішень, які лежать в його основі, тим самим розгадавши “чорну скриньку” підходу штучного інтелекту. Відкриті та інспектовані моделі відіграють інтегральну роль у досягненні цієї мети, оскільки вони забезпечують доступ до основного коду, архітектури системи та навчальних даних для перевірки та аудиту. Ця відкритість сприяє співробітництву, стимулює інновації та захищає від монополізму.

Щоб стати свідками реалізації цього бачення, важливо сприяти змінам політики, ініціативам знизу та заохочувати активну участь усіх зацікавлених сторін, включаючи розробників, корпорації, уряди та громадськість.

Поточний стан штучного інтелекту: концентрація та контроль

Наразі розвиток штучного інтелекту, особливо щодо великих мовних моделей (LLM), в основному централізований і контролюється великими корпораціями. Ця концентрація влади викликає занепокоєння щодо потенційного зловживання та викликає питання про справедливий доступ та справедливий розподіл вигод від досягнень у сфері штучного інтелекту.

У особливості популярні моделі, такі як LLM, не мають відкритих альтернатив під час процесу навчання через великі обчислювальні ресурси, які зазвичай доступні лише великим компаніям. Тим не менше, навіть якщо ця ситуація залишається незмінною, забезпечення прозорості щодо навчальних даних та процесів є важливим для забезпечення перевірки та підзвітності.

Недавнє введення OpenAI системи ліцензування для певних типів штучного інтелекту викликало занепокоєння та стурбованість щодо регуляторного захоплення, оскільки це може вплинути не лише на траєкторію розвитку штучного інтелекту, але й на ширші соціальні, економічні та політичні аспекти.

Потрібність прозорого штучного інтелекту

Представіть собі, що ви покладаєтесь на технологію, яка приймає рішення, що суттєво впливають на людське/особисте життя, але не залишає жодного сліду, жодного розуміння раціоналу цих висновків. Саме тут прозорість стає незамінною.

По-перше, прозорість важлива і будує довіру. Коли моделі штучного інтелекту стають спостережуваними, вони надихають впевненість у їхній надійності та точності. Крім того, така прозорість залишила б розробників та організації значно більш відповідальними за результати своїх алгоритмів.

Іншим важливим аспектом прозорості є ідентифікація та мінімізація алгоритмічної упередженості. Упередженість можна ввести в моделі штучного інтелекту кількома способами.

  • Людський фактор: спеціалісти з даних вразливі до того, щоб внести свої власні упередженості в моделі.
  • Машинне навчання: навіть якщо вчені створили абсолютно об’єктивний штучний інтелект, моделі все ще дуже схильні до упередженості. Машинне навчання починається з визначеного набору даних, але потім звільняється для поглинання нових даних та створення нових шляхів навчання та нових висновків. Ці результати можуть бути ненавмисними, упередженими або неточними, оскільки модель намагається еволюціонувати самостійно в тому, що називається “дрейфом даних.”

Важливо бути обізнаним про ці потенційні джерела упередженості, щоб їх можна було ідентифікувати та мінімізувати. Одним із способів ідентифікації упередженості є аудит даних, використаних для навчання моделі. Це включає пошук моделей, які можуть свідчити про дискримінацію або несправедливість. Іншим способом мінімізації упередженості є використання технік дебіасингу. Ці техніки можуть допомогти видалити або зменшити упередженість у моделі. Будучи прозорими щодо потенційної упередженості та приймаючи заходи для її мінімізації, ми можемо допомогти забезпечити, щоб штучний інтелект використовувався справедливим та відповідальним способом.

Прозорі моделі штучного інтелекту дозволяють дослідникам та користувачам вивчити навчальні дані, ідентифікувати упередженість та вжити коригувальних заходів для їх усунення. Зробивши процес прийняття рішень видимим, прозорість допомагає нам прагнути до справедливості та запобігти поширенню дискримінаційних практик. Крім того, прозорість потрібна протягом усього життя моделі, як пояснюється вище, для запобігання дрейфу даних, упередженості та галюцинаціям штучного інтелекту, які виробляють помилкові відомості. Ці галюцинації особливо поширені у великих мовних моделях, але також існують у всіх формах продуктів штучного інтелекту. Спостережуваність штучного інтелекту також відіграє важливу роль у забезпеченні продуктивності та точності моделей, створюючи безпечніший, більш надійний штучний інтелект, який менш схильний до помилок або непередбачуваних наслідків.

Однак досягнення прозорості у штучному інтелекті не позбавлене своїх викликів. Необхідно знайти баланс, щоб вирішити питання, такі як захист даних, безпека та інтелектуальна власність. Це передбачає впровадження технік захисту приватності, анонімізації чутливих даних та встановлення галузевих стандартів та регуляцій, які сприяють відповідальній прозорості.

Зробити прозорий штучний інтелект реальністю

Розробка інструментів та технологій, які можуть забезпечити інспектованість у штучному інтелекті, є важливою для просування прозорості та підзвітності у моделях штучного інтелекту.

Крім розробки інструментів та технологій, які забезпечують інспектованість у штучному інтелекті, розвиток технологій також може сприяяти прозорості, створюючи культуру прозорості навколо штучного інтелекту. Заохочення бізнесу та організацій бути прозорими щодо використання штучного інтелекту також може допомогти будувати довіру та впевненість. Зробивши інспектування моделей штучного інтелекту легшим та створивши культуру прозорості навколо штучного інтелекту, розвиток технологій може допомогти забезпечити, щоб штучний інтелект використовувався справедливим та відповідальним способом.

Однак розвиток технологій також може мати протилежний ефект. Наприклад, якщо технологічні компанії розробляють пропрієтарні алгоритми, які не підлягають публічній перевірці, це може зробити складніше зрозуміти, як працюють ці алгоритми, та ідентифікувати потенційні упередженості чи ризики. Забезпечення того, щоб штучний інтелект приносив користь суспільству в цілому, а не вибраній меншості, вимагає високого рівня співробітництва.

Дослідники, політики та спеціалісти з даних можуть встановити регуляції та стандарти, які знаходять правильний баланс між відкритістю, приватністю та безпекою без гальмування інновацій. Ці регуляції можуть створити рамки, які заохочують обмін знаннями, одночасно вирішуючи потенційні ризики та визначаючи очікування щодо прозорості та пояснюваності у критичних системах.

Всі сторони, пов’язані з розробкою та розгортанням штучного інтелекту, повинні пріоритезувати прозорість, документуючи свої процеси прийняття рішень, роблячи джерельний код доступним та приймаючи прозорість як основний принцип у розробці систем штучного інтелекту. Це дозволяє кожному мати можливість відіграти важливу роль у вивченні методів зробити алгоритми штучного інтелекту більш інтерпретованими та розробці технік, які сприяють розумінню та поясненню складних моделей.

Нарешті, участь громадськості є важливою в цьому процесі. Піднімаючи освідомленість та сприяючи громадським обговоренням щодо прозорості штучного інтелекту, ми можемо забезпечити, щоб суспільні цінності були відображені у розробці та розгортанні систем штучного інтелекту.

Висновок

Оскільки штучний інтелект все більше інтегрується у різні аспекти нашого життя, прозорість штучного інтелекту та використання відкритих моделей стають критичними факторами. Прийняття інспектованого штучного інтелекту не лише забезпечує справедливість та підзвітність, але також стимулює інновації, запобігає концентрації влади та сприяє справедливому доступу до досягнень у сфері штучного інтелекту.

Пріоритезуючи прозорість, забезпечуючи перевірку моделей штучного інтелекту та сприяючи співробітництву, ми можемо колективно сформувати майбутнє штучного інтелекту, яке принесе користь усім, одночасно вирішуючи етичні, соціальні та технічні виклики, пов’язані з цією трансформаційною технологією.

Ліран Хасон є співзасновником і генеральним директором Aporia, провідної платформи контролю ІІ, довіреної компаніями Fortune 500 і лідерами галузі у світі для забезпечення довіри до GenAI. Aporia також була визнана технологічним піонером Всесвітнім економічним форумом. До заснування Aporia Ліран був архітектором ML у Adallom (придбано Microsoft), а пізніше інвестором у Vertex Ventures. Ліран заснував Aporia після того, як побачив особисто наслідки ІІ без обмежень. У 2022 році Forbes назвав Aporia "Наступною компанією з капіталізацією в 1 мільярд доларів"