Етика
Лідери штучного інтелекту попереджають про “рік загибелі”

У епоху, відзначену швидкими технологічними досягненнями, сходження штучного інтелекту (AI) стоїть на чолі інновацій. Однак це диво людського інтелекту, яке рухає прогрес і зручність, також викликає екзистенційні побоювання щодо майбутнього людства, як висловили відомі лідери AI.
Центр безпеки AI недавно опублікував заяву, підтриману піонерами галузі, такими як Сем Алтман з OpenAI, Деміс Хассабіс з Google DeepMind і Даріо Амодей з Anthropic. Настрій ясний – наближається ризик загибелі людства через AI повинен бути глобальною пріоритетом. Твердження спровокувало дебати в спільноті AI, причому деякі відхиляють страхи як перебільшені, а інші підтримують заклик до обережності.
Зловісні передбачення: потенціал AI для катастрофи
Центр безпеки AI описує кілька потенційних катастрофічних сценаріїв, що виникають унаслідок неправильного використання або неконтрольованого зростання AI. Серед них – озброєння AI, дестабілізація суспільства через дезінформацію, створену AI, та все більш монополістичний контроль над технологією AI, що дозволяє здійснювати повсюдне спостереження та цензуру.
Сценарій ослаблення також згадується, коли люди можуть стати надмірно залежними від AI, подібно до ситуації, зображеної у фільмі Wall-E. Ця залежність може зробити людство вразливим, викликаючи серйозні етичні та екзистенційні питання.
Доктор Джоффрі Хінтон, шанована постать у галузі та голосний адвокат обережності щодо суперінтелектуального AI, підтримує попередження Центру, разом з Йошуа Бенджіо, професором комп’ютерних наук у Монреальському університеті.
Голоси несогласих: дебати щодо потенційної шкоди AI
Протилежно, існує значна частина спільноти AI, яка вважає ці попередження перебільшеними. Ян Лекун, професор Нью-Йоркського університету та дослідник AI у Meta, висловив своє розчарування цими “апокаліптичними пророцтвами”. Критики стверджують, що такі катастрофічні передбачення відволікають від існуючих проблем AI, таких як системна упередженість та етичні розгляди.
Арвінд Нараянан, комп’ютерний вчений у Принстонському університеті, запропонував, що поточні можливості AI далеко від сценаріїв катастрофи, часто зображених. Він підкреслив необхідність зосередитися на існуючих проблемах, пов’язаних з AI.
Аналогічно, Елізабет Реньєріс, старший дослідницький асоціат у Інституті етики AI Оксфордського університету, поділилася побоюваннями щодо ризиків近нього майбутнього, таких як упередженість, дискримінаційне прийняття рішень, поширення дезінформації та соціальна роз’єднаність унаслідок розвитку AI. Спроможність AI вивчати людські створені контенти викликає побоювання щодо передачі багатства та влади від громади до декількох приватних підприємств.
Баланс: навігація між поточними проблемами та майбутніми ризиками
Визнаючи різноманітність поглядів, Ден Гендрікс, директор Центру безпеки AI, підкреслив, що вирішення поточних проблем може надати карту для пом’якшення майбутніх ризиків. Мета полягає у тому, щоб знайти баланс між використанням потенціалу AI та встановленням засобів безпеки для запобігання його неправильному використанню.
Дебати щодо екзистенційної загрози AI не нові. Вони набули імпульсу, коли кілька експертів, включаючи Ілона Маска, підписали відкритий лист у березні 2023 року з вимогою зупинити розвиток наступного покоління технології AI. Діалог з тих пір еволюціонував, причому недавні обговорення порівнюють потенційний ризик з ризиком ядерної війни.
Шлях вперед: пильність та нормативні заходи
Оскільки AI продовжує відігравати все більш важливу роль у суспільстві, важливо пам’ятати, що ця технологія є двосічним мечем. Вона містить великі обіцянки прогресу, але також несе екзистенційні ризики, якщо її залишити без контролю. Дискурс щодо потенційної небезпеки AI підкреслює необхідність глобальної співпраці у визначенні етичних керівних принципів, створенні надійних заходів безпеки та забезпечення відповідального підходу до розвитку та використання AI.












