Штучний інтелект
Загроза кліматичної дезінформації, поширеної генеративними технологіями штучного інтелекту

Штучний інтелект (AI) трансформував спосіб, у який ми отримуємо та поширюємо інформацію. Зокрема, генеративний штучний інтелект (GAI) пропонує безпрецедентні можливості для зростання. Але він також створює значні виклики, особливо у дискурсі щодо зміни клімату, зокрема щодо кліматичної дезінформації.
У 2022 році дослідження показало, що близько 60 облікових записів Twitter були використані для створення 22 000 твітів та поширення помилкової або вводящої в оману інформації про зміну клімату.
Кліматична дезінформація означає неточну або обманну інформацію, пов’язану з кліматологією та проблемами довкілля. Поширення цієї інформації через різні канали спотворює дискурс щодо зміни клімату та ускладнює прийняття рішень, заснованих на доказах.
Як тільки зростає нагальність вирішення проблеми зміни клімату, дезінформація, поширена штучним інтелектом, стає серйозною перешкодою для досягнення колективних кліматичних дій.
Що таке кліматична дезінформація?
Помилкова або вводяча в оману інформація про зміну клімату та її вплив часто поширюється для створення сумнівів та плутанини. Поширення这种 неточної інформації ускладнює ефективні кліматичні дії та розуміння громадськістю.
У епоху, коли інформація миттєво поширюється через цифрові платформи, кліматична дезінформація знайшла родючий ґрунт для поширення та створення плутанини серед громадськості.
Основно існують три типи кліматичної дезінформації:
- Тренд: Поширення помилкової інформації про довгострокові закономірності та зміни глобального клімату, часто для заниження серйозності зміни клімату.
- Атрибуція: Вводяча в оману атрибуція кліматичних подій або явищ невідомим факторам, що маскує справжній вплив людської діяльності на зміну клімату.
- Вплив: Гіперболізування або заниження реальних наслідків зміни клімату, як для викликання страху, так і для підтримки зневаги щодо необхідності кліматичних дій.
У 2022 році були виявлені кілька тривожних спроб поширення кліматичної дезінформації, що демонструє масштаби цього виклику. Ці зусилля включали лобістські кампанії компаній, що видобувають викопний паливо, для впливу на політиків та обману громадськості.
Крім того, магнати нафтової промисловості фінансували кліматичну дезінформацію думки для поширення помилкової інформації. Також корпоративні кліматичні “скептичні” кампанії процвітали на соціальних платформах, використовуючи твіттер-рекламні кампанії для швидкого поширення дезінформації.
Ці маніпулятивні кампанії намагаються підірвати довіру громадськості до кліматології, заохочувати бездіяльність та ускладнювати значимий прогрес у вирішенні проблеми зміни клімату.
Як кліматична дезінформація поширюється за допомогою генеративного штучного інтелекту?

Генеративна технологія штучного інтелекту, особливо глибинні моделі навчання, такі як Генеративні суперницькі мережі (GANs) та трансформери, можуть створювати надзвичайно реалістичний та правдоподібний контент, включаючи текст, зображення, аудіо та відео. Цей прогрес у технології штучного інтелекту відкрив двері для швидкого поширення кліматичної дезінформації різними способами.
Генеративний штучний інтелект може вигадувати історії, які не відповідають дійсності, про зміну клімату. Хоча 5,18 мільярда людей використовують соціальні мережі сьогодні, вони більш обізнані про поточні світові питання. Але вони на 3% менше схильні виявляти помилкові твіти, згенеровані штучним інтелектом, ніж ті, які написані людьми.
Деякі способи, якими генеративний штучний інтелект може поширювати кліматичну дезінформацію:
1. Доступність
Генеративні інструменти штучного інтелекту, які створюють реалістичний синтетичний контент, стають все більш доступними через публічні API та відкриті спільноти. Ця легкість доступу дозволяє навмисно генерувати помилкову інформацію, включаючи текст та фотореалістичні фальшиві зображення, що сприяє поширенню кліматичної дезінформації.
2. Софістичність
Генеративний штучний інтелект дозволяє створювати довші, авторитетні статті, блог-пости та новинні статті, часто копіюючи стиль авторитетних джерел. Ця софістичність може обманути та ввести в оману аудиторію, роблячи складним відрізнити штучний інтелект, згенеровану дезінформацію від справжнього контенту.
3. Переконання
Багатомовні моделі (LLM) інтегровані в агенти штучного інтелекту можуть вступати в складні розмови з людьми, використовуючи переконливі аргументи для впливу на громадську думку. Спроможність генеративного штучного інтелекту створювати персоналізований контент є недетектованим сучасними інструментами виявлення ботів. Крім того, боти GAI можуть посилювати зусилля щодо дезінформації та дозволяють малим групам видаватися більшіми в Інтернеті.
Отже, важливо реалізувати потужні механізми фактчекінгу, медіаграмотність програм та тісний моніторинг цифрових платформ для боротьби з поширенням кліматичної дезінформації, генерованої штучним інтелектом. Посилення цілісності інформації та критичного мислення дозволяє людям орієнтуватися в цифровому ландшафті та приймати обґрунтовані рішення серед зростаючої хвилі кліматичної дезінформації.
Виявлення та боротьба з кліматичною дезінформацією, поширеною штучним інтелектом
Хоча технологія штучного інтелекту сприяла швидкому поширенню кліматичної дезінформації, вона також може бути частиною рішення. Алгоритми, засновані на штучному інтелекті, можуть визначати закономірності, властиві контенту, згенерованому штучним інтелектом, що дозволяє здійснювати раннє виявлення та втручання.
Однак ми ще на початку створення потужних систем виявлення штучного інтелекту. Тому люди можуть вжити наступні кроки для мінімізації ризику кліматичної дезінформації:
- Збільшити пильність: Оскільки програми фактчекінгу штучного інтелекту ще розвиваються, користувачі повинні бути пильними при верифікації інформації, яку вони зустрічають. Натомість автоматично публікувати результати пошукових запитів штучного інтелекту в соціальних мережах, ідентифікувати та оцінити надійні джерела. Перевірка джерел важлива при роботі з важливими темами, такими як боротьба зі зміною клімату.
- Оцінити методи фактчекінгу: Прийняти латеральний читання, техніку, яку використовують експерти-фактчекери. Шукайте інформацію про джерела, наведені в контенті, згенерованому штучним інтелектом, у новому вікні. Аналізуйте надійність джерел та досвід авторів. Використовуйте традиційні пошукові системи для пошуку та оцінки консенсусу серед експертів щодо цієї теми.
- Оцінити докази: Глибше вивчіть докази, наведені в заявах, згенерованих штучним інтелектом. Перевірте, чи підтримується чи спростовується науковим консенсусом та дослідженнями. Швидкі запити до платформ штучного інтелекту можуть дати деякі попередні дані, але для отримання надійних результатів необхідне глибоке дослідження.
- Не покладатися виключно на штучний інтелект: Враховуючи схильність систем штучного інтелекту іноді генерувати галюцинації або неточну інформацію, стає важливим не покладатися виключно на штучний інтелект. Для забезпечення точності та точності знань доповнюйте матеріал, згенерований штучним інтелектом, ретельною верифікацією за допомогою традиційних пошукових систем.
- Просування цифрової грамотності: Медіаграмотність також є важливою для надання людям можливості орієнтуватися в складному дискурсі щодо клімату. Надання громадськості критичного мислення дозволяє їм розрізняти дезінформацію, створюючи більш обізнану та відповідальну спільноту.
Етичні дилеми: баланс свободи слова та контролю дезінформації
У боротьбі з кліматичною дезінформацією, поширеною штучним інтелектом, дотримування етичних принципів у розробці та використанні штучного інтелекту є важливим. Приоритизуючи прозорість, справедливість та підзвітність, ми можемо забезпечити, що технології штучного інтелекту служать загальному благу та позитивно впливають на наше розуміння зміни клімату.
Дізнатися більше про генеративний штучний інтелект або пов’язаний з ним контент, відвідайте unite.ai.












