заглушки Как этично использовать генеративные голоса ИИ для бизнеса в 2023 году - Unite.AI
Свяжитесь с нами:

Лидеры мысли

Как этично использовать генеративные голоса ИИ для бизнеса в 2023 году

mm
обновленный on

Конец 2022 года наступил вслед за технологиями искусственного интеллекта, получившими широкое распространение благодаря ошеломляющей популярности OpenAI и ChatGPT. Впервые искусственный интеллект завоевал популярность на массовом рынке, доказав свою полезность и ценность для достижения успешных результатов в бизнесе.

Многие технологии искусственного интеллекта, которые в 2023 году кажутся обычным людям революцией, на самом деле уже несколько лет активно используются крупным бизнесом и СМИ. Присоединяйтесь ко мне, и я подробно расскажу о технологиях, лежащих в основе этих решений, в частности о генеративных системах ИИ для клонирования голоса, их преимуществах для бизнеса и этических подходах к использованию ИИ.

Как работает клонирование голоса?

Короче говоря, клонирование голоса позволяет одному человеку говорить голосом другого человека.

Он использует технологию генеративного искусственного интеллекта для создания записей голоса человека и их использования для создания нового аудиоконтента с голосом того же человека. По сути, это позволяет людям услышать то, что кто-то сказал бы, даже если они сами этого не говорили.

С технической стороны все выглядит не очень сложно. Но если копнуть немного глубже, есть несколько минимальных требований для начала:

  1. Вам нужно как минимум 5 минут высококачественной записи исходного голоса, чтобы клонировать его. Эти записи должны быть четкими и свободными от фонового шума или других искажений, так как любые дефекты могут повлиять на точность выходных данных модели.
  2. После этого загрузите эти записи в генеративную модель ИИ, чтобы создать «голосовой аватар».
  3. Затем обучите модель точно воспроизводить речевые паттерны по высоте и времени.
  4. После завершения эта обученная модель может генерировать неограниченное количество контента, используя исходный голос любого другого человека, становясь эффективным инструментом для создания реалистично звучащих реплик голосов.

Это тот момент, когда многие высказывают этические опасения. Что происходит, когда мы можем вставить любой текст в рот другому человеку, и невозможно сказать, настоящие это слова или фальшивые?

Да, эта возможность давно стала реальностью. Как и в случае с OpenAI и ChatGPT, в настоящее время мы сталкиваемся с рядом этических проблем, которые нельзя игнорировать.

Этические стандарты в ИИ

Как и в случае со многими другими новыми технологиями, находящимися на начальных этапах внедрения, основная угроза заключается в создании негативной стигмы вокруг технологии, а не в признании угроз как источника для обсуждения и получения ценных знаний. Важно разоблачать методы, которые злоумышленники используют для злоупотребления технологиями и их продуктами, применять инструменты смягчения последствий и продолжать обучение. 

Сегодня у нас есть три уровня этических стандартов, касающихся использования генеративного ИИ. Национальный и наднациональный уровни регулирования находятся в начальной стадии своего развития. Мир политики может не успевать за скоростью развития новых технологий, но мы уже можем наблюдать, как ЕС лидирует с Предложение ЕС по регулированию ИИ и Свод правил по дезинформации 2022 г. в нем излагаются ожидания от крупных технологических компаний по борьбе с распространением вредоносного контента, управляемого искусственным интеллектом. На национальном уровне мы видим первые регулирующие шаги США и Великобритании в решении проблемы с Национальная рабочая группа по дипфейкам и цифровому провенансу и Великобритании Закон о безопасности в Интернете

Слой технологической индустрии движется быстрее, поскольку компании и технологи принимают эту новую реальность, поскольку она относится к новым технологиям и их влиянию на общественную безопасность и конфиденциальность. Диалог об этике генеративного ИИ является активным и привел к разработке отраслевых инициатив по Кодексу поведения в отношении использования генеративного ИИ (т.е. Кодекс поведения Партнерства по искусственным носителям искусственного интеллекта) и этические заявления, выпущенные различными компаниями. Вопрос в том, как сделать поведение практичным? И могут ли они повлиять на продукты, конкретные функции и процедуры команд? 

Работая над этой проблемой с рядом различных медиа и развлекательных сообществ, кибербезопасности и сообщества по этике ИИ, я сформулировал несколько практических принципов работы с контентом и голосами ИИ, в частности: 

  1. Владельцы IP и компания, использующая клонированный голос, могут избежать многих потенциальных осложнений, связанных с использованием оригинальных голосов, подписав юридические соглашения.
  2. Владельцы проекта должны публично раскрывать использование клонированного голоса, чтобы слушатели не были введены в заблуждение.
  3. Компании, работающие над технологией искусственного интеллекта для голоса, должны выделять определенный процент ресурсов на разработку технологий, способных обнаруживать и идентифицировать контент, созданный искусственным интеллектом.
  4. Маркировка контента, созданного искусственным интеллектом, водяными знаками позволяет использовать голосовую аутентификацию.
  5. Каждый поставщик услуг искусственного интеллекта должен проверять каждый проект на предмет его воздействия (на уровне общества, бизнеса и конфиденциальности), прежде чем соглашаться работать над ним.

Разумеется, принципы этики ИИ никак не повлияют на распространение самодельных дипфейков в сети. Тем не менее, они будут вытеснять любые серые проекты из досягаемости публичного рынка.

В 2021–22 годах голоса ИИ использовались в различных основных проектах, которые имели серьезные последствия для этики и общества. К ним относятся клонирование голоса молодого Люка Скайуокера для мандалорского сериала, Голос ИИ для God of War 2качества Голос Ричарда Никсона в историческом фильме «В случае лунной катастрофы»..

Доверие к технологиям выходит за рамки средств массовой информации и развлечений. Традиционные предприятия во многих отраслях используют клонированные голоса в своих проектах. Вот несколько наиболее известных вариантов использования.

Отраслевые варианты использования

В 2023 году клонирование голоса продолжит набирать обороты вместе с различными предприятиями, которые будут пользоваться его многочисленными преимуществами. От здравоохранения и маркетинга до обслуживания клиентов и рекламной индустрии клонирование голоса революционизирует то, как организации строят отношения со своими клиентами и оптимизируют свои рабочие процессы.

Клонирование голоса приносит пользу медицинским работникам и социальным работникам, работающим в онлайн-среде. Цифровые аватары с тем же голосом, что и медицинские работники, укрепляют связи между ними и их пациентами, повышая доверие и сохраняя клиентов.

Потенциальные области применения клонирования голоса в индустрии кино и развлечений огромны. Благодаря этой технологии стало возможным дублирование контента на несколько языков, замена дополнительных диалогов для детей и взрослых (ADR) и почти бесконечный набор параметров настройки.

Точно так же в операционном секторе клонирование голоса на основе ИИ может дать отличные результаты для брендов, которым нужны экономичные решения для интерактивных систем голосового ответа или корпоративных обучающих видеороликов. С помощью технологии синтеза голоса актеры могут расширить свои возможности, увеличив при этом свои возможности зарабатывать остатки от записей.

Наконец, в студиях производства рекламы появление клонирования голоса помогло значительно сократить затраты и количество часов, связанных с коммерческим производством. Пока есть высококачественная запись, доступная для клонирования (даже от недоступных актеров), реклама может производиться быстро и более творчески, чем когда-либо прежде.

Интересно, что предприятия и малые и средние предприятия могут воспользоваться преимуществами клонирования голоса, чтобы создать что-то уникальное для своих брендов. Крупные проекты могут реализовать свои самые амбициозные планы, в то время как малый бизнес может получить доступ к ранее непомерно дорогим масштабным моделям. Вот что значит настоящая демократизация.

Подведение итогов

Клонирование голоса с помощью искусственного интеллекта предлагает компаниям революционные преимущества, такие как создание уникального опыта работы с клиентами, интеграция возможностей обработки естественного языка в их продукты и услуги, а также создание высокоточных олицетворений голосов, которые звучат совершенно реально.

Компании, стремящиеся сохранить свое конкурентное преимущество в 2023 году, должны обратить внимание на клонирование голоса ИИ. Компании могут использовать эту технологию, чтобы открыть множество новых возможностей для завоевания доли рынка и удержания клиентов, делая это с соблюдением этических норм.

Анна является руководителем отдела этики и партнерства в Respeecher, украинская технология клонирования голоса, удостоенная премии «Эмми». Анна — бывший советник по вопросам политики в Reface, синтетическом медиа-приложении на базе искусственного интеллекта, и технический соучредитель инструмента по борьбе с дезинформацией Cappture, финансируемого программой акселерации Startup Wise Guys. Анна имеет 11-летний опыт работы в области политики безопасности и обороны, технологий и повышения устойчивости. В прошлом она работала научным сотрудником в Международном центре обороны и безопасности в Таллинне и Пражском институте исследований в области безопасности. Она также консультирует крупные украинские компании по повышению устойчивости в рамках Целевой группы по гибридной войне Киевской школы экономики.