talon Comment utiliser les voix de l'IA générative de manière éthique pour les entreprises en 2023 - Unite.AI
Suivez nous sur

Des leaders d'opinion

Comment utiliser les voix de l'IA générative de manière éthique pour les entreprises en 2023

mm
Le kit de préparation mis à jour on

La fin de 2022 est arrivée dans la foulée des technologies d'IA qui ont été largement adoptées en raison de la popularité étonnante d'OpenAI et de ChatGPT. Pour la première fois, l'IA a atteint un attrait sur le marché de masse en prouvant son utilité et sa valeur dans la création de résultats commerciaux réussis.

De nombreuses technologies d'IA qui semblent être une révolution pour les gens ordinaires en 2023 sont en fait utilisées activement par les grandes entreprises et les médias depuis plusieurs années. Rejoignez-moi pour examiner de plus près la technologie qui alimente ces solutions, en particulier les systèmes d'IA générative pour le clonage de la voix, ses avantages commerciaux et les approches éthiques de l'utilisation de l'IA.

Comment fonctionne le clonage vocal ?

En bref, le clonage de la voix permet à une personne de parler en utilisant la voix d'une autre personne.

Il utilise la technologie IA générative pour créer des enregistrements de la voix d'une personne et les utiliser pour générer un nouveau contenu audio avec la voix de cette même personne. Cela permet essentiellement aux gens d'entendre ce que quelqu'un aurait dit, même s'ils ne l'ont pas dit eux-mêmes.

Côté technique, les choses ne semblent pas très compliquées. Mais si vous plongez un peu plus profondément, il y a quelques exigences minimales pour commencer :

  1. Vous avez besoin d'au moins 5 minutes d'enregistrement audio de haute qualité de la voix source pour la cloner. Ces enregistrements doivent être clairs et exempts de bruit de fond ou d'autres distorsions, car toute imperfection pourrait affecter la précision de la sortie du modèle.
  2. Ensuite, introduisez ces enregistrements dans un modèle d'IA génératif pour créer un « avatar vocal ».
  3. Ensuite, entraînez le modèle à reproduire avec précision les modèles de parole en termes de hauteur et de synchronisation.
  4. Une fois terminé, ce modèle formé peut générer un contenu illimité en utilisant la voix source de toute autre personne, devenant ainsi un outil efficace pour créer des répliques de voix réalistes.

C'est à ce moment que beaucoup soulèvent des préoccupations éthiques. Que se passe-t-il lorsque nous pouvons insérer n'importe quel texte dans la bouche d'une autre personne et qu'il est impossible de dire si ces mots sont vrais ou faux ?

Oui, cette possibilité est depuis longtemps devenue une réalité. Comme dans le cas d'OpenAI et de ChatGPT, nous sommes actuellement confrontés à un certain nombre de problèmes éthiques qui ne peuvent être ignorés.

Normes éthiques en IA

Comme pour de nombreuses autres nouvelles technologies dans leurs premières étapes d'adoption, la principale menace est de créer une stigmatisation négative autour de la technologie plutôt que de reconnaître les menaces comme une source de discussion et de connaissances précieuses. Ce qui est important, c'est d'exposer les méthodes que les mauvais acteurs utilisent pour abuser de la technologie et de ses produits, appliquer des outils d'atténuation et continuer à apprendre. 

Aujourd'hui, nous avons trois couches de cadres pour les normes éthiques relatives à l'utilisation de l'IA générative. Les couches réglementaires nationales et supranationales sont dans leur phase initiale de développement. Le monde politique ne suit peut-être pas la vitesse de développement des technologies émergentes, mais nous pouvons déjà observer l'UE en tête avec le Proposition de l'UE sur la réglementation de l'IA ainsi que Le code de bonnes pratiques 2022 sur la désinformation qui décrit les attentes des grandes entreprises technologiques pour lutter contre la diffusion de contenu malveillant manipulé par l'IA. Au niveau national, nous voyons les premières mesures réglementaires des États-Unis et du Royaume-Uni pour résoudre le problème avec les États-Unis Groupe de travail national Deepfake et provenance numérique et du Royaume-Uni Projet de loi sur la sécurité en ligne

La couche de l'industrie technologique évolue plus rapidement à mesure que les entreprises et les technologues acceptent cette nouvelle réalité en ce qui concerne les technologies émergentes et leur impact sur la sécurité et la confidentialité de la société. Le dialogue sur l'éthique de l'IA générative est dynamique et a ouvert la voie à l'élaboration d'initiatives industrielles pour des codes de conduite autour de l'utilisation de l'IA générative (c'est-à-dire Code de conduite sur les médias synthétiques du Partenariat sur l'IA) et les déclarations éthiques publiées par différentes entreprises. La question est, comment rendre la conduite pratique ? Et sont-ils capables d'affecter les produits, les fonctionnalités spécifiques et les procédures des équipes ? 

Ayant travaillé sur ce problème avec un certain nombre de communautés différentes de médias et de divertissement, de cybersécurité et d'éthique de l'IA, j'ai formulé quelques principes pratiques pour traiter le contenu et les voix de l'IA en particulier : 

  1. Les propriétaires de propriété intellectuelle et l'entreprise qui utilise la voix clonée peuvent éviter bon nombre des complications potentielles associées à l'utilisation de voix originales en signant des accords juridiques.
  2. Les propriétaires de projet doivent divulguer publiquement l'utilisation d'une voix clonée afin que les auditeurs ne soient pas induits en erreur.
  3. Les entreprises travaillant sur la technologie de l'IA pour la voix devraient allouer un pourcentage de leurs ressources au développement d'une technologie capable de détecter et d'identifier le contenu généré par l'IA.
  4. L'étiquetage du contenu généré par l'IA avec des filigranes permet l'authentification vocale.
  5. Chaque fournisseur de services d'IA doit examiner chaque projet de son impact (niveaux sociétal, commercial et de confidentialité) avant d'accepter d'y travailler.

Bien sûr, les principes d'éthique de l'IA n'affecteront pas la propagation en ligne des deep fakes faits maison. Cependant, ils pousseront tous les projets dans le gris hors de portée du marché public.

En 2021-22, les voix de l'IA ont été utilisées dans différents projets grand public qui ont introduit de lourdes implications pour l'éthique et la société. Ceux-ci comprenaient cloner la voix du jeune Luke Skywalker pour la série Mandalorian, Voix IA pour God of War 2et La voix de Richard Nixon pour l'historique "In Event of Moon Disaster".

La confiance dans la technologie se développe au-delà des médias et du divertissement. Les entreprises traditionnelles de nombreux secteurs utilisent des voix clonées dans leurs projets. Voici quelques-uns des cas d'utilisation les plus importants.

Cas d'utilisation de l'industrie

En 2023, le clonage de voix poursuivra son essor aux côtés de diverses entreprises prêtes à récolter ses nombreux avantages. De la santé et du marketing au service client et à l'industrie de la publicité, le clonage vocal révolutionne la façon dont les organisations établissent des relations avec leurs clients et rationalisent leurs flux de travail.

Le clonage de la voix profite aux professionnels de la santé et aux travailleurs sociaux qui travaillent dans un environnement en ligne. Les avatars numériques avec la même voix que les professionnels de la santé favorisent des liens plus forts entre eux et leurs patients, renforçant la confiance et fidélisant les clients.

Les applications potentielles du clonage de voix dans l'industrie du cinéma et du divertissement sont vastes. Le doublage de contenu dans plusieurs langues, le remplacement des dialogues supplémentaires pour les enfants et les adultes (ADR) et une gamme presque infinie d'options de personnalisation sont tous rendus possibles par cette technologie.

De même, dans le secteur des opérations, le clonage vocal basé sur l'IA peut donner d'excellents résultats pour les marques qui ont besoin de solutions rentables pour les systèmes de réponse vocale interactifs ou les vidéos de formation d'entreprise. Grâce à la technologie de synthèse vocale, les acteurs peuvent étendre leur portée tout en augmentant leur capacité à gagner des résidus à partir d'enregistrements.

Enfin, dans les studios de production publicitaire, l'émergence du clonage de voix a permis de réduire significativement les coûts et le nombre d'heures liés à la production commerciale. Tant qu'il y a un enregistrement de haute qualité disponible pour le clonage (même d'acteurs indisponibles), les publicités peuvent être produites rapidement et de manière plus créative que jamais.

Il est intéressant de noter que les entreprises et les PME peuvent tirer parti du clonage vocal pour créer quelque chose d'unique pour leurs marques. Les grands projets peuvent réaliser leurs plans les plus ambitieux, tandis que les petites entreprises peuvent accéder à des modèles à l'échelle auparavant prohibitifs. C'est ce que signifie la vraie démocratisation.

Emballage en place

Le clonage vocal IA offre aux entreprises des avantages révolutionnaires, tels que la création d'expériences client uniques, l'intégration de capacités de traitement du langage naturel dans leurs produits et services et la génération d'imitations très précises de voix qui semblent tout à fait réelles.

Les entreprises qui cherchent à maintenir leur avantage concurrentiel en 2023 devraient se pencher sur le clonage de voix par IA. Les entreprises peuvent utiliser cette technologie pour débloquer une variété de nouvelles possibilités pour gagner des parts de marché et fidéliser leurs clients tout en le faisant de manière éthiquement responsable.

Anna est responsable de l'éthique et des partenariats chez Respeecher, une technologie de clonage de voix récompensée par un Emmy et basée en Ukraine. Anna est une ancienne conseillère politique chez Reface, une application de médias synthétiques alimentée par l'IA et co-fondatrice technologique de l'outil de contre-désinformation Cappture financé par le programme d'accélération Startup Wise Guys. Anna a 11 ans d'expérience dans les politiques de sécurité et de défense, les technologies et le renforcement de la résilience. Elle a été chercheuse au Centre international pour la défense et la sécurité de Tallinn et à l'Institut d'études de sécurité de Prague. Elle a également conseillé de grandes entreprises ukrainiennes sur le renforcement de la résilience dans le cadre du groupe de travail sur la guerre hybride à la Kyiv School of Economics.