заглушки Как внедрить этику ИИ? - Unite.ИИ
Свяжитесь с нами:

Лидеры мысли

Как внедрить этику ИИ?

mm

опубликованный

 on

ИИ занимается оптимизацией процессов, а не устранением из них людей. Ответственность по-прежнему имеет решающее значение для всеобъемлющей идеи о том, что ИИ может заменить людей. Хотя технологии и автоматизированные системы помогли нам добиться более высоких экономических результатов в прошлом веке, могут ли они действительно заменить услуги, творчество и глубокие знания? Я по-прежнему считаю, что они не могут, но они могут оптимизировать время, затрачиваемое на разработку этих областей.

Подотчетность в значительной степени зависит от прав интеллектуальной собственности, предвидя влияние технологий на коллективные и индивидуальные права и обеспечивая безопасность и защиту данных, используемых при обучении и обмене при разработке новых моделей. По мере того, как мы продолжаем развиваться в области технологий, тема этики ИИ становится все более актуальной. Это поднимает важные вопросы о том, как мы регулируем и интегрируем ИИ в общество, минимизируя при этом потенциальные риски.

Я тесно работаю с одним аспектом ИИ — клонированием голоса. Голос является важной частью образа человека и биометрических данных, используемых для обучения голосовых моделей. Защита сходства (юридические вопросы и вопросы политики), защита голосовых данных (политика конфиденциальности и кибербезопасность) и установление ограничений приложений для клонирования голоса (этические вопросы измерения воздействия) необходимо учитывать при создании продукта.

Мы должны оценить, насколько ИИ соответствует общественным нормам и ценностям. ИИ должен быть адаптирован в соответствии с существующими этическими рамками общества, гарантируя, что он не создает дополнительных рисков и не угрожает установленным социальным нормам. Влияние технологий охватывает области, в которых ИИ расширяет возможности одной группы людей и устраняет другие. Эта экзистенциальная дилемма возникает на каждом этапе нашего развития и социального роста или упадка. Может ли ИИ внести больше дезинформации в информационные экосистемы? Да. Как мы управляем этим риском на уровне продукта и как мы информируем об этом пользователей и политиков? Ответы кроются не в опасностях самих технологий, а в том, как мы упаковываем их в продукты и услуги. Если у нас не будет достаточного количества людей в продуктовых командах, чтобы смотреть дальше и оценивать влияние технологий, мы застрянем в цикле исправления беспорядка.

Интеграция ИИ в продукты поднимает вопросы о безопасности продуктов и предотвращении вреда, связанного с ИИ. При разработке и внедрении ИИ приоритет должен отдаваться безопасности и этическим соображениям, что требует выделения ресурсов соответствующим командам.

Чтобы облегчить возникающую дискуссию об этичности ИИ, я предлагаю следующий базовый цикл для того, чтобы сделать ИИ этичным на уровне продукта:

1. Изучите юридические аспекты ИИ и то, как мы его регулируем, если такие правила существуют. К ним относятся Закон ЕС об искусственном интеллекте, Закон о цифровых услугах, Закон Великобритании о безопасности в Интернете и GDPR о конфиденциальности данных. Фреймворки находятся в стадии разработки и требуют участия лидеров отрасли (новых технологий) и лидеров. См. пункт (4), который завершает предложенный цикл.

2. Подумайте, как мы адаптируем продукты на основе ИИ к общественным нормам, не подвергая себя большему риску. Влияет ли это на информационную безопасность или сектор занятости или нарушает авторские права и права интеллектуальной собственности? Создайте матрицу на основе кризисного сценария. Я беру это из своего опыта международной безопасности.

3. Определите, как интегрировать вышеперечисленное в продукты на основе ИИ. По мере того как ИИ становится все более изощренным, мы должны обеспечить его соответствие ценностям и нормам общества. Нам необходимо активно учитывать этические соображения и интегрировать их в разработку и внедрение ИИ. Если продукты на основе ИИ, такие как генеративный ИИ, угрожают распространить дезинформацию, мы должны внедрить функции смягчения последствий, модерацию, ограничить доступ к основным технологиям и общаться с пользователями. Крайне важно иметь группы по этике и безопасности ИИ в продуктах на основе ИИ, для чего требуются ресурсы и видение компании.

Подумайте, как мы можем внести свой вклад в формирование правовой базы. Передовая практика и политические рамки — это не просто модные словечки; это практические инструменты, которые помогают новым технологиям функционировать как вспомогательные инструменты, а не как надвигающиеся угрозы. Объединение политиков, исследователей, крупных и новых технологий необходимо для достижения баланса между общественными и деловыми интересами, связанными с ИИ. Правовые рамки должны адаптироваться к новым технологиям искусственного интеллекта, гарантируя, что они защищают людей и общество, а также способствуют инновациям и прогрессу.

4. Подумайте о том, какой вклад мы вносим в правовые рамки и формируем их. Передовой опыт и рамки политики — это не пустые модные словечки, а вполне практические инструменты, позволяющие заставить новые технологии работать как вспомогательные средства, а не как надвигающиеся угрозы. Наличие политиков, исследователей, крупных и новых технологий в одной комнате необходимо для обеспечения баланса интересов общества и бизнеса в отношении ИИ. Правовые рамки должны адаптироваться к новым технологиям искусственного интеллекта. Нам необходимо обеспечить, чтобы эти рамки защищали людей и общество, а также способствовали инновациям и прогрессу.

Обзор

Это действительно базовый круг интеграции новых технологий на основе искусственного интеллекта в наши общества. Поскольку мы продолжаем бороться со сложностями этики ИИ, важно оставаться приверженным поиску решений, которые ставят во главу угла безопасность, этику и благополучие общества. И это не пустые слова, а кропотливая работа по ежедневному складыванию всех пазлов.

Эти слова основаны на моем собственном опыте и выводах.

Анна является руководителем отдела этики и партнерства в Respeecher, украинская технология клонирования голоса, удостоенная премии «Эмми». Анна — бывший советник по вопросам политики в Reface, синтетическом медиа-приложении на базе искусственного интеллекта, и технический соучредитель инструмента по борьбе с дезинформацией Cappture, финансируемого программой акселерации Startup Wise Guys. Анна имеет 11-летний опыт работы в области политики безопасности и обороны, технологий и повышения устойчивости. В прошлом она работала научным сотрудником в Международном центре обороны и безопасности в Таллинне и Пражском институте исследований в области безопасности. Она также консультирует крупные украинские компании по повышению устойчивости в рамках Целевой группы по гибридной войне Киевской школы экономики.