Лидеры мнений
Как операционализировать этику ИИ?

ИИ заключается в оптимизации процессов, а не в исключении людей из них. Ответственность остается важнейшим фактором в общей идее, что ИИ может заменить людей. Хотя технологии и автоматизированные системы помогли нам достичь лучших экономических результатов в прошлом веке, могут ли они действительно заменить услуги, творчество и глубокие знания? Я все еще считаю, что они не могут, но они могут оптимизировать время, затраченное на развитие этих областей.
Ответственность сильно зависит от прав интеллектуальной собственности, прогнозирования влияния технологий на коллективные и индивидуальные права, а также обеспечения безопасности и защиты данных, используемых при обучении и обмене при разработке новых моделей. По мере того, как мы продолжаем продвигаться в технологиях, тема этики ИИ становится все более актуальной. Это вызывает важные вопросы о том, как мы регулируем и интегрируем ИИ в общество, минимизируя потенциальные риски.
Я тесно сотрудничаю с одной стороны ИИ – клонированием голоса. Голос является важной частью подобия человека и биометрических данных, используемых для обучения голосовых моделей. Защита подобия (правовые и политические вопросы), обеспечение безопасности голосовых данных (политики конфиденциальности и кибербезопасности) и установление пределов применения клонирования голоса (этические вопросы, измеряющие влияние) являются важными факторами, которые необходимо учитывать при создании продукта.
Нам необходимо оценить, как ИИ соответствует нормам и ценностям общества. ИИ должен быть адаптирован к существующей этической рамке общества, обеспечивая, чтобы он не создавал дополнительных рисков или не угрожал установленным социальным нормам. Влияние технологий распространяется на области, где ИИ укрепляет одну группу людей, а другую исключает. Этот экзистенциальный дилемма возникает на каждом этапе нашего развития и социального роста или спада. Может ли ИИ ввести больше дезинформации в информационные экосистемы? Да. Как мы управляем этим риском на уровне продукта, и как мы обучаем пользователей и политиков об этом? Ответы лежат не в опасности самой технологии, а в том, как мы упаковываем ее в продукты и услуги. Если у нас нет достаточно персонала в командах продукта, чтобы выходить за рамки и оценивать влияние технологий, мы будем застревать в цикле исправления беспорядка.
Интеграция ИИ в продукты вызывает вопросы о безопасности продукта и предотвращении вреда, связанного с ИИ. Разработка и внедрение ИИ должны уделять приоритетное внимание безопасности и этическим соображениям, что требует распределения ресурсов соответствующим командам.
Чтобы облегчить появляющийся дискуссию об операционализации этики ИИ, я предлагаю этот базовый цикл для создания этического ИИ на уровне продукта:
1. Изучите правовые аспекты ИИ и то, как мы регулируем его, если существуют регулирования. Это включает в себя Акт ЕС об ИИ, Закон о цифровых услугах, Закон Великобритании о безопасности в Интернете и GDPR о конфиденциальности данных. Эти рамки являются работами в прогрессе и требуют вклада от лидеров индустрии (новых технологий) и лидеров. См. пункт (4), который завершает предложенный цикл.
2. Рассмотрите, как мы адаптируем продукты, основанные на ИИ, к нормам общества без создания дополнительных рисков. Затрагивает ли это информационную безопасность или сектор занятости, или нарушает ли оно авторские и права интеллектуальной собственности? Создайте матрицу, основанную на кризисных сценариях. Я черпаю это из моего международного опыта безопасности.
3. Определите, как интегрировать вышесказанное в продукты, основанные на ИИ. По мере того, как ИИ становится более совершенным, мы должны обеспечить, чтобы он соответствовал ценностям и нормам общества. Нам необходимо быть активными в решении этических соображений и интеграции их в разработку и внедрение ИИ. Если продукты, основанные на ИИ, такие как генеративный ИИ, угрожают распространить больше дезинформации, мы должны ввести смягчающие функции, модерацию, ограничить доступ к основной технологии и общаться с пользователями. Это важно иметь команды по этике и безопасности ИИ в продуктах, основанных на ИИ, что требует ресурсов и видения компании.
Рассмотрите, как мы можем внести вклад в и сформировать правовые рамки. Лучшие практики и рамки политики не являются пустыми словами; они являются практическими инструментами, которые помогают новой технологии функционировать как инструменты помощи, а не как нависающие угрозы. Объединение политиков, исследователей, крупных технологий и новых технологий в одной комнате является важным для балансирования социальных и деловых интересов, окружающих ИИ. Правовые рамки должны адаптироваться к новой технологии ИИ, обеспечивая, чтобы они защищали людей и общество, а также способствовали инновациям и прогрессу.
4. Подумайте, как мы вносим вклад в правовые рамки и формируем их. Лучшие практики и рамки политики не являются пустыми словами, а довольно практическими инструментами, чтобы сделать новую технологию работать как инструменты помощи, а не как нависающие угрозы. Объединение политиков, исследователей, крупных технологий и новых технологий в одной комнате является важным для балансирования социальных и деловых интересов, окружающих ИИ. Правовые рамки должны адаптироваться к новой технологии ИИ. Нам необходимо обеспечить, чтобы эти рамки защищали людей и общество, а также способствовали инновациям и прогрессу.
Резюме
Это действительно базовый круг интеграции продуктов, основанных на новых технологиях, в наши общества. По мере того, как мы продолжаем бороться с сложностями этики ИИ, важно оставаться приверженными поиску решений, которые отдают приоритет безопасности, этике и социальному благополучию. И эти слова не являются пустыми словами, а тяжелой работой по соединению всех пазлов ежедневно.
Эти слова основаны на моем собственном опыте и выводах.












