Етика
Коаліція з питань етики штучного інтелекту засуджує алгоритми прогнозування злочинності

У вівторок група дослідників штучного інтелекту, етиків, фахівців з даних та соціологів опублікувала пост у блозі, в якому стверджується, що вчені повинні припинити дослідження, спрямовані на прогнозування ймовірності скоєння злочину окремою особою, виходячи з таких факторів, як статистика злочинності та сканування обличчя.
Пост у блозі був написаний Коаліцією з питань критичної технології, яка стверджує, що використання таких алгоритмів підтримує цикл упередженості проти меншин. Багато досліджень ефективності алгоритмів розпізнавання облич та прогнозування поліцейської діяльності показують, що ці алгоритми часто засуджують меншини більш суворо, що, на думку авторів поста, є наслідком нерівностей у системі правосуддя. Система правосуддя генерує упереджену інформацію, а отже алгоритми, навчені на цій інформації, поширюють ці упередження, стверджує Коаліція з питань критичної технології. Коаліція стверджує, що сама концепція “злочинності” часто заснована на расових ознаках, а тому дослідження цих технологій припускають нейтральність алгоритмів, тоді як насправді такої нейтральності не існує.
Як повідомляє The Verge, великий видавець академічних робіт Springer планував опублікувати дослідження під назвою “Глибока нейронна мережа для прогнозування злочинності за допомогою обробки зображень”. Автори дослідження стверджували, що вони створили алгоритм розпізнавання облич, здатний прогнозувати ймовірність скоєння злочину окремою особою без упередженості та з точністю близько 80%. Однак Коаліція з питань критичної технології написала відкритий лист до Springer, закликаючи видавця утриматися від публікації дослідження чи майбутніх досліджень на подібну тему.
“Поширення цієї роботи великим видавцем, таким як Springer, стало б значним кроком до легітимації та застосування багаторазово спростованих, соціально шкідливих досліджень у реальному світі”, стверджує коаліція.
Springer заявив, що не буде публікувати роботу, як повідомляє MIT Technology Review. Springer заявив, що робота була подана на майбутню конференцію, але після процесу рецензування робота була відхилена від публікації.
Коаліція з питань критичної технології стверджує, що дослідження прогнозування злочинності є лише одним випадком більшої, шкідливої тенденції, коли інженери та дослідники штучного інтелекту намагаються прогнозувати поведінку на основі даних, що складаються з чутливих, соціально сконструйованих змінних. Коаліція також стверджує, що багато досліджень ґрунтуються на науково сумнівних ідеях та теоріях, які не підтримуються наявними доказами у біології та психології. Як приклад, дослідники з Принстона та Google опублікували статтю, в якій попередили, що алгоритми, які стверджують, що можуть прогнозувати злочинність на основі ознак обличчя, ґрунтуються на дискредитованих та небезпечних псевдонауках, таких як фізіогномія. Дослідники попередили проти використання машинного навчання для відродження довгозабутих теорій, які підтримують расистські системи.
Недавній імпульс руху Black Lives Matter спонукав багато компаній, які використовують алгоритми розпізнавання облич, переоцінити використання цих систем. Дослідження показали, що ці алгоритми часто упереджені, ґрунтуються на не репрезентативних, упереджених навчальних даних.
Підписанти листа, окрім того, що стверджують, що дослідники штучного інтелекту повинні відмовитися від досліджень алгоритмів прогнозування злочинності, також рекомендують дослідникам переоцінити, як оцінюється успіх моделей штучного інтелекту. Члени коаліції рекомендують, щоб соціальний вплив алгоритмів був метрикою успіху, поряд з метриками, такими як точність, виклик та точність. Як пишуть автори статті:
“Якщо машинне навчання має принести ‘соціальне добро’, про яке йдеться в грантах та прес-релізах, дослідники в цій сфері повинні активно відображати потужні структури (та супутні утиски), які роблять їхню роботу можливою.”










