Штучний інтелект
Дослідники починають тренувати штучний інтелект для боротьби з ненавистницькими висловами в Інтернеті

Фальшиві новини та ненавистницькі вислови в Інтернеті стають не щоденною, а щохвилинною проблемою в Інтернеті. За даними IkigaiLab, Facebook і Twitter тільки нещодавно мали закрити понад 1,5 мільярда та 70 мільйонів облікових записів відповідно, щоб хоча б частково обмежити поширення фальшивих новин і ненавистницьких висловів по всьому світу.
Все ж таки, на даний момент така задача вимагає величезної людської сили та майже безперервної роботи, щоб лише торкнутися вершини айсберга ненавистницьких висловів. Для вирішення цієї проблеми дослідники в численних лабораторіях починають тренувати штучний інтелект (AI), щоб допомогти у виконанні цієї гігантської задачі.
Ikigai цитує систему Rosetta, яку Facebook використовує для перевірки автентичності новин, зображень чи іншого контенту, який завантажується на цю соціальну мережу. Як пояснюється, система Rosetta сканує “слово, зображення, мову, шрифт, дату публікації серед інших змінних і намагається визначити, чи є інформація, яку представляють, справжньою чи ні”. Після того, як система збирає інформацію та враховуючи, що AI ще не повністю “здатний зрозуміти натяки, посилання, натяки та контекст, у якому був опублікований контент”, людські модератори беруть на себе керівництво системою AI для виявлення ненавистницьких висловів і фальшивих новин.
Для того, щоб спробувати далі розвинути здатність систем AI покривати всі можливі нюанси, які характеризують ненавистницькі вислови, команда дослідників у UC Santa Barbara та Intel, як повідомляє TheNextWeb (TNW), “взяла тисячі розмов з найбільш ненавистницьких спільнот на Reddit і Gab та використала їх для розробки та тренування AI для боротьби з ненавистницькими висловами”.
За їхнім звітом, для цього спільна група дослідників створила спеціальний набір даних , що містить “тисячі розмов, спеціально відібраних для забезпечення їхньої повноти ненавистницькими висловами”. Вони також використали список груп на Reddit, які найбільш характеризуються використанням ненавистницьких висловів, складений Джастіном Каффіром з Vox.
Дослідники зібрали “більше 22 000 коментарів з Reddit та понад 33 000 з Gab”. Вони виявили, що ці два сайти демонструють podobні популярні ключові слова ненависті, але розподіли дуже різні.
Вони зазначили, що через ці відмінності дуже важко соціальним медіа втрутитися в режимі реального часу, оскільки потік ненавистницьких висловів настільки високий, що це вимагало б безлічі людей, щоб слідкувати за ним.
Для вирішення цієї проблеми команда дослідників почала тренувати AI для втручання. Їхній початковий базовий набір даних був надісланий працівникам Amazon Turk для маркування. Після ідентифікації окремих випадків ненавистницьких висловів працівники створили фрази, які AI буде використовувати “для стримування користувачів від розміщення подібних ненавистницьких висловів у майбутньому”.
На основі цього команда “провела цей набір даних та свою базу даних втручань через різні системи машинного навчання та обробки природної мови та створила певний прототип системи втручання проти ненавистницьких висловів в Інтернеті”.
Отримані результати були відмінними, але оскільки розробка ще знаходиться на ранній стадії, система ще не готова до активного використання. Як пояснюється, “система, в теорії, повинна виявляти ненавистницькі вислови та негайно надсилати повідомлення.poster, повідомляючи їм, чому вони не повинні розміщувати речі, які явно представляють ненавистницькі вислови. Це залежить не тільки від виявлення ключових слів – для того, щоб AI працювала, їй потрібно правильно зрозуміти контекст”.










