кочан Коалицията за етика на изкуствения интелект осъжда алгоритмите за прогнозиране на престъпността – Unite.AI
Свържете се с нас

етика

Коалицията за етика на изкуствения интелект осъжда алгоритмите за прогнозиране на престъпността

mm

Публикуван

 on

Във вторник редица изследователи на AI, етика, учени по данни и социални учени пусна публикация в блога твърдейки, че академичните изследователи трябва да спрат да провеждат изследвания, които се опитват да предскажат вероятността дадено лице да извърши престъпно деяние, въз основа на променливи като статистика за престъпността и сканиране на лицето.

Автор на публикацията в блога е Коалицията за критични технологии, която твърди, че използването на такива алгоритми поддържа цикъл от предразсъдъци срещу малцинствата. Много проучвания на ефикасността на алгоритмите за разпознаване на лица и предсказуем полицейски контрол установяват, че алгоритмите са склонни да съдят малцинствата по-строго, което авторите на публикацията в блога твърдят, че се дължи на неравенството в системата на наказателното правосъдие. Съдебната система произвежда пристрастни данни и следователно алгоритмите, обучени върху тези данни, разпространяват тези пристрастия, твърди Коалицията за критични технологии. Коалицията твърди, че самото понятие за „престъпност“ често се основава на раса и следователно изследванията, направени върху тези технологии, предполагат неутралността на алгоритмите, когато всъщност такава неутралност не съществува.

Както съобщава The Verge, големият издател на академични произведения, Springer, планираше да публикува проучване, озаглавено „Модел на дълбока невронна мрежа за прогнозиране на престъпността с помощта на обработка на изображения“. Авторите на изследването твърдят, че са създали алгоритъм за лицево разпознаване, способен да предвиди шанса дадено лице да извърши престъпление без пристрастия и с приблизително 80% точност. И все пак Коалицията за критични технологии написа отворено писмо до Springer, призовавайки издателя да се въздържа от публикуване на проучването или бъдещи проучвания, включващи подобни изследвания.

„Разпространението на тази работа от голям издател като Springer би представлявало значителна стъпка към легитимирането и прилагането на многократно развенчани, социално вредни изследвания в реалния свят“, твърди коалицията.

Springer заяви, че няма да публикува вестника, както съобщава MIT Technology Review. Спрингър заяви, че документът е бил представен за предстояща конференция, но след процеса на партньорска проверка документът е бил отхвърлен за публикуване.

Коалицията за критични технологии твърди, че документът за прогнозиране на престъпността е само един пример за по-голяма, вредна тенденция, при която инженерите и изследователите на ИИ се опитват да предскажат поведение въз основа на данни, съставени от чувствителни, социално конструирани променливи. Коалицията също така твърди, че голяма част от изследванията се основават на научно съмнителни идеи и теории, които не са подкрепени от наличните доказателства в биологията и психологията. Като пример, изследователи от Принстън и Google публикува статия предупреждение, че алгоритмите, които твърдят, че могат да предсказват престъпност въз основа на черти на лицето, се основават на дискредитирани и опасни псевдонауки като физиономията. Изследователите предупредиха да не позволяваме машинното обучение да се използва за възстановяване на отдавна развенчани теории, използвани за подкрепа на расистки системи.

Скорошният импулс на движението Black Lives Matter подтикна много компании, използващи алгоритми за разпознаване на лица, да преоценят използването на тези системи. Изследванията са установили, че тези алгоритми често са пристрастни, базирани на непредставителни, пристрастни данни за обучение.

Подписалите писмото, в допълнение към аргумента, че изследователите на AI трябва да се откажат от изследвания върху алгоритми за прогнозиране на престъпността, те също така препоръчаха на изследователите да преоценят как се оценява успехът на моделите на AI. Членовете на коалицията препоръчват общественото въздействие на алгоритмите да бъде метрика за успех, в допълнение към показатели като прецизност, припомняне и точност. Както пишат авторите на статията:

„Ако машинното обучение трябва да доведе до „социалното благо“, рекламирано в предложения за безвъзмездни средства и съобщения за пресата, изследователите в това пространство трябва активно да разсъждават върху структурите на властта (и съпътстващите ги потисничества), които правят тяхната работа възможна.“