Лідери думок
Хто захистить нас від дезінформації, створеної штучним інтелектом?

Генеративний штучний інтелект перейшов від нуля до сотні за менш ніж рік. Хоча це рано, він вже продемонстрував свій потенціал трансформувати бізнес. У цьому ми всі погоджуємося. Там, де ми розходимося, – це у тому, як стримувати небезпеки, які він становить.
Щоб бути ясним, я підтримую інновації і далеко не страхую. Але недавній зростання дезінформації – в основному спрямованої на поляризацію навколо суперечливих питань моменту – зробив ясним, що, якщо його не стримувати, генеративний штучний інтелект може завдати шкоди суспільству.
Ми вже бачили цей фільм раніше з соціальними медіа, але пройшло роки і важкі уроки, щоб ми прокинулись до його недоліків. Ми (принаймні) щось навчились. Питання сьогодні в тому, хто допоможе стримувати хвилю реальності від генеративного штучного інтелекту, і як?
Передбачувано, уряди починають діяти. Європа веде атаку, як вони все частіше демонструють на регулюванні технологій. США йдуть прямо за ними, з Президентом Байденом, який видав виконавчий наказ минулого жовтня.
Але це буде потрібно глобальне село, яке діє разом, щоб “тримати генеративний штучний інтелект чесним”. І до того, як уряд зможе допомогти, йому потрібно зрозуміти обмеження доступних підходів.
Проблема ідентичності стала ще гіршою
У цьому новому світі правда стає голкою в копиці думок, що маскеруються під факти. Знання від кого походить контент має значення більше, ніж будь-коли.
І це не так просто, як декретування того, що кожен акаунт у соціальних медіа повинен бути верифікованим. Є сильна опозиція до цього, і в деяких випадках анонімність потрібна, щоб виправдано захистити власників акаунтів. Крім того, багато споживачів найгіршого контенту не турбуються, чи є він достовірним, ні звідки він походить.
Незважаючи на ці застереження, потенційна роль ідентичності у боротьбі з генеративним штучним інтелектом недооцінюється. Скептики, послухайте мене.
Давайте уявимо, що регулювання або соціальна свідомість змусять платформи дати кожному власнику акаунту такі варіанти:
- Верифікувати свою ідентичність або ні, і
- Відкрито розкрити свою верифіковану ідентичність, або просто бути позначеним як “ID Верифікований”
Тоді аудиторія соціальних медіа зможе краще вирішити, хто є достовірним. Не менш важливо, якщо не більш, ідентичність підтримує відповідальність. Платформи можуть вирішити, які дії вжити проти серійних “дезінформаторів” і повторюваних порушників контенту, створеного штучним інтелектом, навіть якщо вони з’являються під різними іменами акаунтів.
З генеративним штучним інтелектом, який підвищує ставки, я вважаю, що ідентичність – знання точно хто опублікував що – є критичною. Деякі будуть проти цього, і ідентичність не є всебічною відповіддю. Насправді, жодне рішення не задовольнить усіх учасників. Але якщо регулювання змушує платформи пропонувати верифікацію ідентичності всім акаунтам, я переконаний, що вплив буде величезним позитивом.
Конундрум модерації
Модерація контенту – автоматична і людська – це остання лінія оборони проти нежаданого контенту. Людська модерація – це складна робота, з ризиком психологічної шкоди від впливу найгірших проявів людства. Це також дорого і часто звинувачується в упередженій цензурі, яку платформи намагаються зменшити.
Автоматична модерація масштабується за межі людської здатності впоратися з потоками нового контенту, але вона не може зрозуміти контекст (меми є загальним прикладом) і культурні нюанси. Обидва види модерації є важливими і необхідними, але вони є тільки частиною відповіді.
Часто чута, традиційна рецептура для контролю генеративного штучного інтелекту полягає в тому, що “потрібна співпраця між лідерами технологій, урядом і громадянським суспільством”. Так, але що саме?
Уряди, зі своєї сторони, можуть змусити соціальні та медійні платформи пропонувати верифікацію ідентичності і відкрито демонструвати її на всіх публікаціях. Регулятори також можуть створити умови для метрик достовірності, які фактично допоможуть оцінити, чи є джерело достовірним. Співпраця необхідна для розробки універсальних стандартів, які дають конкретні вказівки і напрямки, щоб приватний сектор не мав здогадуватися.
Нарешті, чи повинно бути заборонено створювати зловмисний вихід штучного інтелекту? Законодавство, яке забороняє контент, призначений для незаконної діяльності, може зменшити обсяг токсичного контенту і полегшити роботу модераторам. Я не бачу регулювання і законів як здатних перемогти дезінформацію, але вони є необхідними у боротьбі з цією загрозою.
Сонячний бік вулиці: інновації
Обіцянка інновацій робить мене оптимістом тут. Ми не можемо очікувати, що політики або власники платформ повністю захистять від обману, створеного штучним інтелектом. Вони залишають велику прогалину, і саме це надихне винахід нових технологій для автентифікації контенту і виявлення фальшивих повідомлень.
Оскільки ми тепер знаємо негативну сторону соціальних медіа, ми швидко зрозуміли, що генеративний штучний інтелект може виявитися величезним негативом для людства, з його здатністю поляризувати і дезінформувати.
Оптимістично, я бачу вигоди від багаторівневих підходів, де методи контролю працюють разом, спочатку на джерелі, обмежуючи створення контенту, призначеного для незаконного використання. Потім, до публікації, верифікація ідентичності тих, хто відмовляється від анонімності. Далі, чітке позначення, щоб показати рейтинги достовірності і ідентичність постера або її відсутність. Нарешті, автоматична і людська модерація можуть фільтрувати деякий із найгіршого контенту. Я б очікував появи нових технологій автентифікації скоро.
Додавши все це, ми матимемо значно краще, хоча ніколи не ідеальне, рішення. Тим часом, ми повинні розвивати свої навички, щоб визначити, що є реальним, хто говорить правду, і хто намагається обманути нас.












