Connect with us

Будування довіри до штучного інтелекту – новий базовий рівень

Лідери думок

Будування довіри до штучного інтелекту – новий базовий рівень

mm

Штучний інтелект розширюється швидко, і як будь-яка технологія, що швидко дозріває, він потребує чітко визначених меж – ясних, свідомих і створених не тільки для обмеження, але й для захисту та надання можливостей. Це особливо актуально, оскільки штучний інтелект майже повністю інтегрований у кожний аспект нашого особистого та професійного життя.

Як лідери у сфері штучного інтелекту, ми стоїмо на важливому етапі. З одного боку, у нас є моделі, які вчаться і адаптуються швидше, ніж будь-яка інша технологія раніше. З іншого боку, зростає відповідальність за те, щоб вони діяли з безпекою, цілісністю та глибоким людським узгодженням. Це не є розкошею – це основа真正ої довіри до штучного інтелекту.

Довіра має найбільше значення сьогодні

Минулі кілька років бачили видатні досягнення у сфері мовних моделей, багатомодального розуміння та агентського штучного інтелекту. Але з кожним кроком вперед ставки зростають. Штучний інтелект формує бізнес-рішення, і ми бачили, що навіть найменші помилки мають великі наслідки.

Візьмімо, наприклад, штучний інтелект у суді. Ми всі чули історії про адвокатів, які покладаються на аргументи, згенеровані штучним інтелектом, лише щоб виявити, що моделі сфабрикували справи, іноді що призводило до дисциплінарних заходів або навіть втрати ліцензії. Насправді юридичні моделі були показані як “галюцинації” принаймні в одному з шести бенчмаркових запитів. Ще більш занепокоєння викликають випадки, такі як трагічний випадок з Character.AI, який з тих пір оновив свої функції безпеки, де чат-бот був пов’язаний з самогубством підлітка. Ці приклади підкреслюють реальні ризики неконтрольованого штучного інтелекту та критичну відповідальність, яку ми несемо як лідери технологій, не тільки для створення розумніших інструментів, але й для будівництва відповідально, з людством у центрі.

Приклад Character.AI – це стримуюче нагадування про те, чому довіра повинна бути закладена в основу розмовного штучного інтелекту, де моделі не тільки відповідають, але й взаємодіють, інтерпретують і адаптуються в реальному часі. У голосових або високоризикових взаємодіях навіть одна галюцинована відповідь або невідповідна реакція може підірвати довіру або спричинити реальну шкоду. Технічні, процедурні та етичні заходи безпеки – це не щось необов’язкове; вони є необхідними для швидкого руху при захисті того, що найважливіше: людської безпеки, етичної цілісності та довгострокової довіри.

Еволюція безпечного, узгодженого штучного інтелекту

Заходи безпеки не нові. У традиційному програмному забезпеченні у нас завжди були правила валідації, рольові права доступу та перевірки відповідності.

Сучасна безпека штучного інтелекту тепер багатомірна. Деякі основні концепції включають:

  • Поведінкова узгодженість через техніки, такі як навчання з людською обратною зв’язкою (RLHF) та Конституційний штучний інтелект, коли ви даєте моделі набір керівних “принципів” – щось на зразок міні-етичного кодексу
  • Фреймворки управління, які інтегрують політику, етику та цикли огляду
  • Інструменти реального часу для динамічного виявлення, фільтрації або корекції відповідей

Анатомія заходів безпеки штучного інтелекту

McKinsey визначає заходи безпеки як системи, призначені для моніторингу, оцінки та корекції змісту, згенерованого штучним інтелектом, для забезпечення безпеки, точності та етичної узгодженості. Ці заходи безпеки залежать від поєднання правил та компонентів, керованих штучним інтелектом, таких як перевірювачі, коректори та координуючі агенти, для виявлення проблем, таких як упередженість, особисто ідентифікована інформація (PII) або шкідливий вміст, та автоматичного уточнення виведення перед доставкою.

Давайте розберемо це:

​​До того, як запит навіть досягне моделі, заходи безпеки на вході оцінюють намір, безпеку та дозволи на доступ. Це включає фільтрацію та санітарну обробку запитів для відхилення будь-чого небезпечного або безглуздого, забезпечення контролю доступу для чутливих API або корпоративних даних та виявлення того, чи відповідає намір користувача затвердженому випадку використання.

Як тільки модель видає відповідь, заходи безпеки на виході вступають у дію для оцінки та уточнення її. Вони фільтрують токсичну мову, ворожу мову або дезінформацію, пригнічують або переписують небезпечні відповіді в реальному часі та використовують інструменти мінімізації упередженості чи фактчекінгу для зменшення галюцинацій та засновування відповідей на фактичному контексті.

Поведінкові заходи безпеки регулюють, як моделі поводяться з часом, особливо у багатокрокових або контекстно-чутливих взаємодіях. Це включає обмеження пам’яті для запобігання маніпуляції запитом, обмеження потоку токенів для уникнення атак ін’єкції та визначення меж того, чого не можна робити моделі.

Ці технічні системи заходів безпеки працюють найкраще, коли вони вбудовані через кілька рівнів стека штучного інтелекту.

Модульний підхід забезпечує, щоб заходи безпеки були надлишкові та стійкими, виявляючи відмови в різних точках та зменшуючи ризик одних точок відмов. На рівні моделі техніки, такі як RLHF та Конституційний штучний інтелект, допомагають формувати основну поведінку, закладену безпосередньо у спосіб мислення та реагування моделі. Шар середнього програмного забезпечення охоплює модель, щоб перехоплювати вхідні та вихідні дані в реальному часі, фільтруючи токсичну мову, скануючи чутливі дані та перенаправляючи при необхідності. На рівні робочого процесу заходи безпеки координують логіку та доступ через багатокрокові процеси або інтегровані системи, забезпечуючи, щоб штучний інтелект поважав дозволи, слідував бізнес-правилам та поводився передбачувано у складних середовищах.

На більш широкому рівні системні та заходи безпеки забезпечують нагляд протягом усього життєвого циклу штучного інтелекту. Журнали аудиту забезпечують прозорість та слідовність, людина в циклі процеси залучають експертний огляд, а дозволи на доступ визначають, хто може змінити або викликати модель. Деякі організації також реалізують етичні ради для керівництва відповідальним розробленням штучного інтелекту з跨функціональним входом.

Розмовний штучний інтелект: де заходи безпеки真正о перевіряються

Розмовний штучний інтелект представляє окремий набір викликів: взаємодії в реальному часі, непередбачуваний вхід користувача та висока планка для підтримання як корисності, так і безпеки. У цих умовах заходи безпеки не тільки фільтри вмісту – вони допомагають формувати тон, забезпечувати межі та визначати, коли ескалувати або відхиляти чутливі теми. Це може означати перенаправлення медичних запитів до ліцензованих фахівців, виявлення та деескалацію аб’юзивної мови або підтримання відповідності, забезпечуючи, щоб скрипти залишалися в межах нормативних ліній.

У передових середовищах, таких як обслуговування клієнтів або польові операції, ще менше місця для помилок. Одна галюцинована відповідь або невідповідна реакція може підірвати довіру або привести до реальних наслідків. Наприклад, велика авіакомпанія зіткнулася з судовим позовом після того, як її чат-бот штучного інтелекту дав клієнту неправильну інформацію про знижки у зв’язку з трауром. Суд у кінцевому підсумку визнав компанію відповідальною за відповідь чат-бота. Ніхто не виграє в цих ситуаціях. Тому нам, як постачальникам технологій, необхідно взяти повну відповідальність за штучний інтелект, який ми передаємо нашим клієнтам.

Будівництво заходів безпеки – це робота всіх

Заходи безпеки повинні розглядатися не тільки як технічне досягнення, але й як спосіб мислення, який потрібно вбудувати на кожному етапі циклу розробки. Хоча автоматизація може виділити очевидні проблеми, судження, емпатія та контекст все ще потребують людського нагляду. У високоризикових або двозначних ситуаціях люди є необхідними для того, щоб зробити штучний інтелект безпечним, не тільки як запасний варіант, але й як основну частину системи.

Щоб真正о операціоналізувати заходи безпеки, їх потрібно вплітати у життєвий цикл розробки програмного забезпечення, а не прикріплювати в кінці. Це означає, що відповідальність потрібно розподілити по всіх етапах та ролях. Менеджери продукту визначають, що штучний інтелект повинен і не повинен робити. Дизайнери встановлюють очікування користувачів та створюють елегантні шляхи відновлення. Інженери будують у засоби резервування, моніторингу та модерації. Команди QA тестують крайні випадки та імітують зловживання. Юридичні та відповідальні особи перекладають політики у логіку. Команди підтримки служать людською мережею безпеки. А менеджери повинні пріоритезувати довіру та безпеку зверху донизу, роблячи місце на дорожній карті та винагороджуючи вдумливу, відповідальну розробку. Навіть найкращі моделі будуть пропускати тонкі сигнали, і саме тут добре треновані команди та чіткі шляхи ескалації стають останнім шаром захисту, тримаючи штучний інтелект у рамках людських цінностей.

Вимірювання довіри: Як знати, що заходи безпеки працюють

Ви не можете керувати тим, чого не вимірюєте. Якщо довіра є метою, нам потрібно чіткі визначення того, що означає успіх, за межами часу безперервної роботи або затримки. Ключові метрики для оцінки заходів безпеки включають точність безпеки (як часто шкідливі виводи успішно блокуються проти хибних позитивів), частоту втручання (як часто люди втручаються), та продуктивність відновлення (як добре система вибачається, перенаправляє чи деескалує після відмови). Сигнали, такі як настрій користувача, рівень виходу та повторна плутаність, можуть надати розуміння того, чи відчувають користувачі себе безпечно та зрозуміло. І важливо, адаптивність, як швидко система включає у себе зворотний зв’язок, є сильним індикатором довгострокової надійності.

Заходи безпеки не повинні бути статичними. Вони повинні еволюціонувати на основі реального використання, крайніх випадків та сліпих зон системи. Постійна оцінка допомагає розкрити, де заходи безпеки працюють, де вони надто жорсткі чи ліберальні, та як модель реагує, коли її тестують. Без видимості того, як заходи безпеки працюють з часом, ми ризикуємо розглядати їх як позначки замість динамічних систем, якими вони повинні бути.

Тим часом навіть найкраще спроектовані заходи безпеки стикаються з внутрішніми компромісами. Переблокування може розчарувати користувачів; підблокування може спричинити шкоду. Настройка балансу між безпекою та корисністю є постійним викликом. Заходи безпеки не повинні бути статичними; вони повинні бути пояснюваними, справедливими та налаштовуваними, або вони ризикують стати ще одним шаром непрозорості.

Погляд у майбутнє

Як штучний інтелект стає більш розмовним, інтегрованим у робочі процеси та здатним виконувати завдання самостійно, його відповіді повинні бути надійними та відповідальними. У галузях, таких як юридична, авіаційна, розважальна, обслуговування клієнтів та польові операції, навіть одна відповідь, згенерована штучним інтелектом, може впливати на рішення або викликати дію. Заходи безпеки допомагають забезпечити, що ці взаємодії є безпечними та узгодженими з реальними очікуваннями. Метою не є тільки будівництво розумніших інструментів, а будівництво інструментів, яким люди можуть довіряти. І в розмовному штучному інтелекті довіра не є бонусом. Це базовий рівень.

Ассаф Асбаг - досвідчений експерт у сфері технологій та даних науки з понад 15-річним досвідом у галузі штучного інтелекту, зараз обіймає посаду головного технологічного та продуктового директора (CTPO) у aiOla, глибокої технологічної лабораторії розмовного штучного інтелекту, де він стимулює інновації штучного інтелекту та лідерство на ринку.

Розкриття інформації про рекламу: Unite.AI дотримується суворих редакційних стандартів, щоб надавати читачам точну інформацію та новини. Ми можемо отримувати компенсацію, якщо ви переходите за посиланнями на продукти, які ми оглядали.