Connect with us

Принципы этики ИИ подвергаются мета-анализу, подчеркиваются права человека

Этика

Принципы этики ИИ подвергаются мета-анализу, подчеркиваются права человека

mm

В 2019 году внимание к этике ИИ было больше, чем когда-либо прежде. Однако большая часть этого обсуждения казалась неясной, без кодифицированного подхода. Вместо этого разные компании создавали свои собственные рамки и политику в отношении этики ИИ. Достижение консенсуса по вопросам этики ИИ важно, поскольку оно помогает политикам создавать и корректировать политику, и также информирует работу исследователей и ученых. Помимо этого, компании, занимающиеся ИИ, должны знать, где находятся этические пределы, если они надеются избежать неэтичного внедрения ИИ. Чтобы создать более четкую картину тенденций в этике ИИ, как сообщает VentureBeats, Центр Беркмана Клейна в Гарвардском университете провел мета-анализ различных существующих принципов и рамок этики ИИ.

Согласно авторам анализа, исследователи хотели сравнить принципы бок о бок, чтобы найти совпадения и расхождения. Джессика Фьельд, помощник директора Клиники киберправа Гарвардской школы права, объяснила, что команда исследователей хотела “раскрыть скрытый импульс в разрозненной, глобальной дискуссии о будущем ИИ, что привело к этому белому бумаге и связанной с ним визуализации данных.”

Во время анализа команда изучила 36 разных документов по принципам ИИ, происходящих из разных частей мира и различных типов организаций. Результаты исследования показали, что существует восемь тем, которые постоянно появлялись в различных документах.

Конфиденциальность и подотчетность были двумя из наиболее часто встречающихся этических тем, как и безопасность/защита ИИ. Прозрачность/объяснимость также была часто цитируемой целью, с многими попытками сделать алгоритмы более объяснимыми в течение 2019 года. Справедливость/отсутствие дискриминации была еще одной этической точкой зрения, отражающей растущие опасения по поводу предвзятости данных. Обеспечение контроля человека над технологией и не передача полномочий ИИ были сильно упомянуты. Профессиональная ответственность была седьмой общей темой, найденной исследователями. Наконец, исследователи обнаружили постоянные упоминания о содействии человеческим ценностям в документации по этике ИИ, которую они изучали.

Команда исследователей предоставила качественный и количественный анализ того, как эти темы проявлялись внутри документации по этике ИИ в своей статье и в сопровождающей карте. Карта показывает, где каждая из тем была упомянута.

Команда исследователей отметила, что большая часть обсуждения этики ИИ вращалась вокруг заботы о человеческих ценностях и правах. Как отмечается в исследовательской статье:

“64% наших документов содержали ссылку на права человека, и пять документов [14%] приняли международные права человека в качестве рамки для своей общей деятельности.”

Ссылки на права человека и ценности были более распространены в документах, подготовленных частными секторами и гражданскими общественными группами. Это указывает на то, что компании частного сектора, занимающиеся ИИ, не заботятся только о прибыли, но и о производстве ИИ этическим способом. Тем временем, государственные агентства, кажется, менее обеспокоены или осведомлены об этике ИИ в целом, с менее чем половиной документов, связанных с ИИ, исходящих от государственных агентств, занимающихся этикой ИИ.

Исследователи также отметили, что если документы, которые они изучали, были более недавними, они с большей вероятностью рассматривали все восемь наиболее заметных тем, а не только несколько. Этот факт подразумевает, что идеи, лежащие в основе того, что составляет этичное использование ИИ, начинают консолидироваться среди тех, кто ведет обсуждение об этике ИИ. Наконец, исследователи утверждают, что успех этих принципов в руководстве разработкой ИИ будет зависеть от того, насколько хорошо они интегрированы в сообщество разработчиков ИИ в целом. Исследователи заявляют в статье:

“Более того, принципы являются отправной точкой для управления, а не конечной целью. Сам по себе набор принципов вряд ли будет более чем слегка убедительным. Его влияние, вероятно, будет зависеть от того, как он встроен в более крупную систему управления, включая, например, соответствующие политики (например, национальные планы ИИ), законы, правила, но также профессиональные практики и повседневные рутинные действия.”

Блогер и программист с специализацией в Machine Learning и Deep Learning темах. Daniel надеется помочь другим использовать силу ИИ для социального блага.