Интервью
Грейс Йи, старший директор по этическим инновациям (этика и доступность ИИ) в Adobe – серия интервью

Грейс Йи является старшим директором по этическим инновациям (этика и доступность ИИ) в саман, стимулируя глобальную общеорганизационную работу по вопросам этики и разрабатывая процессы, инструменты, тренинги и другие ресурсы, чтобы гарантировать, что ведущие в отрасли инновации Adobe в области ИИ постоянно развиваются в соответствии с основными ценностями и этическими принципами Adobe. Грейс продвигает приверженность Adobe ответственному созданию и использованию технологий, сосредотачивая этику и инклюзивность во всей работе компании по разработке ИИ. В рамках этой работы Грейс курирует Комитет по этике ИИ и Совет по обзору Adobe, который дает рекомендации, помогающие направлять команды разработчиков Adobe, и рассматривает новые функции и продукты ИИ, чтобы убедиться, что они соответствуют принципам Adobe по подотчетности, ответственности и прозрачности. Эти принципы помогают нам выводить на рынок наши функции на основе ИИ, одновременно смягчая вредные и предвзятые результаты. Грейс также работает с командой по политике, чтобы стимулировать пропаганду, помогая формировать государственную политику, законы и правила в отношении ИИ на благо общества.
В рамках обязательств Adobe по доступности Грейс помогает гарантировать, что продукты Adobe являются инклюзивными и доступными для всех пользователей, чтобы каждый мог создавать, взаимодействовать и участвовать в цифровых проектах. Под ее руководством Adobe работает с правительственными группами, торговыми ассоциациями и сообществами пользователей для продвижения и продвижения политик и стандартов доступности, продвигая эффективные отраслевые решения.
Можете ли вы рассказать нам о пути Adobe за последние пять лет в формировании этики ИИ? Какие ключевые вехи определили эту эволюцию, особенно в условиях таких быстрых достижений, как генеративный ИИ?
Пять лет назад мы формализовали наш процесс этики ИИ, установив принципы подотчетности, ответственности и прозрачности этики ИИ, которые служат основой для нашего процесса управления этикой ИИ. Мы собрали разнообразную, кросс-функциональную команду сотрудников Adobe со всего мира, чтобы разработать действенные принципы, которые выдержат испытание временем.
Оттуда мы разработали надежный процесс проверки для выявления и смягчения потенциальных рисков и предубеждений на ранних этапах цикла разработки ИИ. Эта многокомпонентная оценка помогла нам выявить и устранить функции и продукты, которые могли бы увековечить вредные предубеждения и стереотипы.
С появлением генеративного ИИ мы адаптировали нашу оценку этики ИИ для решения новых этических проблем. Этот итеративный процесс позволил нам опережать потенциальные проблемы, гарантируя, что наши технологии ИИ разрабатываются и внедряются ответственно. Наша приверженность непрерывному обучению и сотрудничеству с различными командами в компании имела решающее значение для поддержания актуальности и эффективности нашей программы этики ИИ, в конечном итоге улучшая опыт, который мы предоставляем нашим клиентам, и способствуя инклюзивности.
Как принципы этики ИИ Adobe — подотчетность, ответственность и прозрачность — воплощаются в ежедневную деятельность? Можете ли вы поделиться примерами того, как эти принципы направляли проекты ИИ Adobe?
Мы придерживаемся обязательств Adobe в области этики ИИ в наших функциях на базе ИИ, внедряя надежные инженерные методы, которые гарантируют ответственные инновации, и постоянно собирая отзывы наших сотрудников и клиентов для внесения необходимых корректировок.
Новые функции ИИ проходят тщательную этическую оценку для выявления и смягчения потенциальных предубеждений и рисков. Когда мы представили Adobe Firefly, наше семейство генеративных моделей ИИ, оно прошло оценку для смягчения создания контента, который может увековечить вредные стереотипы. Эта оценка представляет собой итеративный процесс, который развивается на основе тесного сотрудничества с командами по продуктам, включая обратную связь и обучение, чтобы оставаться актуальными и эффективными. Мы также проводим упражнения по обнаружению рисков с командами по продуктам, чтобы понять потенциальное воздействие для разработки соответствующих механизмов тестирования и обратной связи.
Как Adobe решает проблемы, связанные с предвзятостью в ИИ, особенно в инструментах, используемых глобальной, разнообразной пользовательской базой? Не могли бы вы привести пример того, как предвзятость была выявлена и смягчена в конкретной функции ИИ?
Мы постоянно развиваем наши процессы оценки и обзора этики ИИ в тесном сотрудничестве с нашими командами по продуктам и инжинирингу. Оценка этики ИИ, которая у нас была несколько лет назад, отличается от той, что есть сейчас, и я ожидаю дополнительных изменений в будущем. Этот итеративный подход позволяет нам включать новые знания и решать возникающие этические проблемы по мере развития таких технологий, как Firefly.
Например, когда мы добавили многоязычную поддержку в Firefly, моя команда заметила, что он не выдает ожидаемый результат, и некоторые слова блокируются непреднамеренно. Чтобы смягчить это, мы тесно сотрудничали с нашей командой по интернационализации и носителями языка, чтобы расширить наши модели и охватить термины и коннотации, специфичные для страны.
Наша приверженность развитию нашего подхода к оценке по мере развития технологий — это то, что помогает Adobe сбалансировать инновации с этической ответственностью. Способствуя инклюзивному и отзывчивому процессу, мы гарантируем, что наши технологии ИИ соответствуют самым высоким стандартам прозрачности и честности, давая создателям возможность использовать наши инструменты с уверенностью.
С вашим участием в формировании государственной политики, как Adobe лавирует между быстро меняющимися правилами ИИ и инновациями? Какую роль Adobe играет в формировании этих правил?
Мы активно взаимодействуем с политиками и отраслевыми группами, чтобы помочь сформировать политику, которая уравновешивает инновации с этическими соображениями. Наши обсуждения с политиками сосредоточены на нашем подходе к ИИ и важности разработки технологий для улучшения человеческого опыта. Регуляторы ищут практические решения для решения текущих проблем, и представляя такие фреймворки, как наши принципы этики ИИ, разработанные совместно и последовательно применяемые в наших функциях на основе ИИ, мы способствуем более продуктивным обсуждениям. Крайне важно приводить конкретные примеры, демонстрирующие, как наши принципы работают на практике, и демонстрировать реальное воздействие, а не говорить об абстрактных концепциях.
Каким этическим соображениям Adobe уделяет первостепенное внимание при поиске данных для обучения и как она гарантирует, что используемые наборы данных являются одновременно этичными и достаточно надежными для нужд ИИ?
В Adobe мы уделяем первостепенное внимание нескольким ключевым этическим соображениям при поиске данных для обучения наших моделей ИИ. В рамках наших усилий по разработке Firefly, который будет коммерчески безопасным, мы обучили его на наборе данных лицензированного контента, такого как Adobe Stock, и общедоступного контента, на который истек срок действия авторских прав. Мы также сосредоточились на разнообразии наборов данных, чтобы избежать усиления вредных предубеждений и стереотипов в выходных данных нашей модели. Для достижения этого мы сотрудничаем с различными командами и экспертами для проверки и курирования данных. Придерживаясь этих практик, мы стремимся создавать технологии ИИ, которые не только являются мощными и эффективными, но также этичными и инклюзивными для всех пользователей.
По вашему мнению, насколько важна прозрачность в информировании пользователей о том, как обучаются системы искусственного интеллекта Adobe, такие как Firefly, и какие данные при этом используются?
Прозрачность имеет решающее значение, когда речь идет о сообщении пользователям о том, как обучаются функции генеративного ИИ Adobe, такие как Firefly, включая типы используемых данных. Она создает доверие и уверенность в наших технологиях, гарантируя пользователям понимание процессов, лежащих в основе нашей разработки генеративного ИИ. Будучи открытыми в отношении наших источников данных, методик обучения и этических мер безопасности, которые мы применяем, мы даем пользователям возможность принимать обоснованные решения о том, как они взаимодействуют с нашими продуктами. Эта прозрачность не только соответствует нашим основным принципам этики ИИ, но и способствует сотрудничеству с нашими пользователями.
По мере того, как ИИ, особенно генеративный ИИ, продолжает масштабироваться, с какими, по вашему мнению, наиболее значительными этическими проблемами столкнутся такие компании, как Adobe, в ближайшем будущем?
Я считаю, что наиболее значимыми этическими проблемами для таких компаний, как Adobe, являются смягчение вредных предубеждений, обеспечение инклюзивности и поддержание доверия пользователей. Потенциал ИИ непреднамеренно увековечивать стереотипы или генерировать вредный и вводящий в заблуждение контент — это проблема, требующая постоянной бдительности и надежных мер безопасности. Например, с недавними достижениями в области генеративного ИИ «плохим игрокам» стало проще, чем когда-либо, создавать обманчивый контент, распространять дезинформацию и манипулировать общественным мнением, подрывая доверие и прозрачность.
Для решения этой проблемы Adobe основала в 2019 году Инициативу по подлинности контента (CAI), чтобы создать более надежную и прозрачную цифровую экосистему для потребителей. CAI реализует наше решение для создания доверия в Интернете, называемое Учетными данными контента. Учетные данные контента включают «ингредиенты» или важную информацию, такую как имя создателя, дата создания изображения, какие инструменты использовались для создания изображения и любые изменения, которые были сделаны в процессе. Это позволяет пользователям создавать цифровую цепочку доверия и подлинности.
Поскольку генеративный ИИ продолжает масштабироваться, все более важным станет содействие широкому внедрению учетных данных контента для восстановления доверия к цифровому контенту.
Какой совет вы бы дали другим организациям, которые только начинают задумываться об этических основах разработки ИИ?
Я бы посоветовал начать с установления четких, простых и практических принципов, которые могут направлять ваши усилия. Часто я вижу компании или организации, сосредоточенные на том, что выглядит хорошо в теории, но их принципы непрактичны. Причина, по которой наши принципы выдержали испытание временем, заключается в том, что мы разработали их так, чтобы они были применимы на практике. Когда мы оцениваем наши функции на основе ИИ, наши команды по продуктам и инженерам знают, что мы ищем и какие стандарты мы ожидаем от них.
Я бы также рекомендовал организациям приступать к этому процессу, зная, что он будет итеративным. Я не знаю, что Adobe собирается изобрести через пять или 10 лет, но я знаю, что мы будем развивать нашу оценку, чтобы соответствовать этим инновациям и отзывам, которые мы получаем.
Спасибо за отличное интервью, читатели, которые хотят узнать больше, должны посетить саман.