Лідери думок
Подолання розриву довіри до ШІ

Впровадження ШІ досягає критичної точки перелому. Підприємства з ентузіазмом сприймають штучний інтелект, керуючись його обіцянками досягти значних покращень операційної ефективності.
Недавній Опитування Slack виявили, що впровадження штучного інтелекту продовжує прискорюватися: використання ШІ на робочих місцях нещодавно зросло на 24%, а 96% опитаних керівників вважають, що «негайно необхідно інтегрувати ШІ у всі свої бізнес-операції».
Однак є а розширення розриву між корисністю штучного інтелекту та зростаючою тривогою щодо його потенційних негативних наслідків. лише 7% настільних працівників вважають, що виходи з ШІ заслуговують довіри, щоб допомогти їм у виконанні завдань, пов’язаних з роботою.
Цей розрив проявляється в різкому контрасті між ентузіазмом керівників щодо інтеграції штучного інтелекту та скептицизмом працівників щодо таких факторів, як:
- Упередженість і справедливість: системи ШІ можуть увічнити або навіть посилити існуючі упередження що призводить до несправедливих результатів.
- Конфіденційність і безпека: працівники хвилюються про те, як їх особисті дані збирається, зберігається та використовується системами ШІ.
- Непрозоре прийняття рішень: системи ШІ часто працюють як «чорні ящики», приймаючи рішення, які важко зрозуміти людям або пояснити.
- Тривога автоматизації: широко поширений страх, що ШІ замінить людську роботу, що призводить до безробіття та економічної нестабільності.
Роль законодавства у розбудові довіри
Щоб вирішити ці багатогранні проблеми довіри, законодавчі заходи все частіше розглядаються як необхідний крок. Законодавство може відігравати ключову роль у регулюванні розробки та впровадження штучного інтелекту, зміцнюючи таким чином довіру. Основні законодавчі підходи включають:
- Закони про захист даних і конфіденційність: впровадження суворих законів про захист даних гарантує відповідальне поводження систем ШІ з особистими даними. Такі нормативні акти, як Загальний регламент захисту даних (GDPR), створюють прецедент у Європейському Союзі, вимагаючи прозорості, мінімізації даних і згоди користувачів. Зокрема, Стаття 22 GDPR захищає суб’єктів даних від потенційного несприятливого впливу автоматизованого прийняття рішень. Нещодавні рішення Суду Європейського Союзу (СЄС) підтверджують права людини не піддаватися автоматичному прийняттю рішень. У випадку Schufa Holding AG, якщо резиденту Німеччини було відмовлено в банківській позиці на основі автоматизованої системи прийняття кредитних рішень, суд постановив, що стаття 22 вимагає від організацій вживати заходів захистити права на конфіденційність, пов’язані з використанням технологій ШІ.
- Правила AI: Європейський Союз ратифікував Акт ЄС про штучний інтелект (ЄС AIA), метою якого є регулювання використання систем штучного інтелекту на основі рівня ризику. Закон містить обов’язкові вимоги до систем штучного інтелекту з високим рівнем ризику, охоплюючи такі сфери, як якість даних, документація, прозорість і людський нагляд. Однією з головних переваг регулювання ШІ є сприяння прозорості та зрозумілості систем ШІ. Крім того, ЄС AIA встановлює чіткі рамки відповідальності, гарантуючи, що розробники, оператори та навіть користувачі систем ШІ несуть відповідальність за свої дії та результати розгортання ШІ. Це включає механізми відшкодування якщо система ШІ завдає шкоди. Коли окремі особи та організації несуть відповідальність, це створює впевненість у відповідальному управлінні системами ШІ.
Ініціативи зі стандартизації для розвитку культури надійного ШІ
Компаніям не потрібно чекати на виконання нових законів, щоб перевірити, чи відповідають їхні процеси етичним і надійним принципам. Правила штучного інтелекту працюють у парі з новими ініціативами щодо стандартів штучного інтелекту, які дають організаціям змогу впроваджувати відповідальне управління штучним інтелектом і найкращі практики протягом усього життєвого циклу систем штучного інтелекту, охоплюючи проектування, впровадження, розгортання та, зрештою, виведення з експлуатації.
Національний інститут стандартів і технологій (NIST) у Сполучених Штатах розробив Структура управління ризиками ШІ керувати організаціями в управлінні ризиками, пов’язаними зі штучним інтелектом. Структура структурована навколо чотирьох основних функцій:
- Розуміння системи ШІ та контексту, в якому вона працює. Це включає визначення мети, зацікавлених сторін і потенційного впливу системи ШІ.
- Кількісна оцінка ризиків, пов’язаних із системою ШІ, включаючи технічні та нетехнічні аспекти. Це передбачає оцінку продуктивності системи, надійності та потенційних упереджень.
- Впровадження стратегій для пом’якшення виявлених ризиків. Це включає розробку політик, процедур і засобів контролю для забезпечення роботи системи ШІ в межах прийнятного рівня ризику.
- Створення структур управління та механізмів підзвітності для нагляду за системою ШІ та її процесами управління ризиками. Це передбачає регулярні перегляди та оновлення стратегії управління ризиками.
У відповідь на досягнення генеративних технологій ШІ NIST також опублікував структуру управління ризиками штучного інтелекту: генеративний профіль штучного інтелекту, який надає вказівки щодо пом’якшення певних ризиків, пов’язаних із базовими моделями. Такі заходи охоплюють захист від нечесного використання (наприклад, дезінформації, принизливого контенту, мови ненависті) та етичне застосування ШІ, яке зосереджується на людських цінностях справедливості, конфіденційності, інформаційної безпеки, інтелектуальної власності та сталого розвитку.
Крім того, Міжнародна організація стандартизації (ISO) і Міжнародна електротехнічна комісія (IEC) спільно розробили ISO/IEC 23894, комплексний стандарт для управління ризиками ШІ. Цей стандарт забезпечує системний підхід до виявлення та управління ризиками протягом усього життєвого циклу штучного інтелекту, включаючи ідентифікацію ризиків, оцінку серйозності ризику, лікування для його пом’якшення або уникнення, а також постійний моніторинг і перегляд.
Майбутнє штучного інтелекту та суспільної довіри
Заглядаючи в майбутнє, майбутнє штучного інтелекту та громадської довіри, ймовірно, залежатиме від кількох ключових факторів, яких необхідно дотримуватися всім організаціям:
- Виконання всебічної оцінки ризиків для виявлення потенційних проблем з відповідністю. Оцініть етичні наслідки та потенційні упередження у своїх системах ШІ.
- Створення міжфункціональної команди, до складу якої входять спеціалісти з юриспруденції, комплаєнсу, ІТ та науки про дані. Ця команда має відповідати за моніторинг нормативних змін і забезпечення відповідності ваших систем ШІ новим нормам.
- Впровадження структури управління, яка включає політики, процедури та ролі для управління ініціативами ШІ. Забезпечити прозорість операцій ШІ та процесів прийняття рішень.
- Проведення регулярних внутрішніх аудитів для забезпечення дотримання правил ШІ. Використовуйте засоби моніторингу, щоб відстежувати продуктивність системи штучного інтелекту та дотримання нормативних стандартів.
- Навчання співробітників етиці ШІ, нормативним вимогам і найкращим практикам. Проводьте постійні тренінги, щоб інформувати персонал про зміни в правилах штучного інтелекту та стратегіях відповідності.
- Ведення детальних записів процесів розробки ШІ, використання даних і критеріїв прийняття рішень. Підготуйтеся до створення звітів, які за потреби можна надати регуляторам.
- Побудова відносин з регуляторними органами та участь у публічних консультаціях. Надавати відгуки про запропоновані нормативні акти та шукати роз’яснень, якщо це необхідно.
Контекстуалізуйте ШІ, щоб отримати надійний ШІ
Зрештою, надійний ШІ залежить від цілісності даних. Залежність генеративного ШІ від великих наборів даних не означає точність і надійність результатів; у всякому разі, це суперечить обом стандартам. Retrieval Augmented Generation (RAG) — це інноваційна техніка, яка «поєднує статичні LLM з контекстно-залежними даними. І його можна вважати висококваліфікованим помічником. Той, який зіставляє контекст запиту з конкретними даними з комплексної бази знань.” RAG дозволяє організаціям створювати контекстно-залежні програми, які дотримуються очікувань конфіденційності, безпеки, точності та надійності. RAG покращує точність згенерованих відповідей шляхом отримання відповідної інформації з бази знань або сховища документів. Це дозволяє створювати модель на основі точної та актуальної інформації.
RAG дає можливість організаціям створювати спеціально розроблені програми штучного інтелекту, які є високоточними, залежними від контексту та адаптованими для покращення процесу прийняття рішень, покращення досвіду клієнтів, оптимізації операцій та досягнення значних конкурентних переваг.
Подолання розриву довіри до ШІ передбачає забезпечення прозорості, підзвітності та етичного використання ШІ. Хоча немає однозначної відповіді на дотримання цих стандартів, підприємства все ж мають у своєму розпорядженні стратегії та інструменти. Впровадження надійних заходів із забезпечення конфіденційності даних і дотримання нормативних стандартів зміцнює довіру користувачів. Регулярний аудит систем штучного інтелекту на упередженість і неточності забезпечує справедливість. Розширення великих мовних моделей (LLM) за допомогою спеціально створеного штучного інтелекту забезпечує довіру завдяки використанню власних баз знань і джерел даних. Залучення зацікавлених сторін до можливостей і обмежень штучного інтелекту також сприяє довірі та прийняттю
Надійний штучний інтелект нелегко створити, але це життєво важливе зобов’язання для нашого майбутнього.