Tankeledere
Hvordan bruge generative AI-stemmer etisk til forretningsformål i 2023

Afslutningen på 2022 kom på hælene af, at AI-teknologier oplevede en bred anvendelse på grund af den overvældende popularitet af OpenAI og ChatGPT. For første gang opnåede AI en bred markedsappeal ved at bevise sin nytte og værdi i at skabe succesfulde forretningsresultater.
Mange AI-teknologier, der synes som en revolution for almindelige mennesker i 2023, har faktisk været i aktiv brug af store virksomheder og medier i flere år. Følg med mig, mens jeg tager en nærmere kig på den teknologi, der driver disse løsninger, især generative AI-systemer til stemmekloning, dens forretningsfordele og etiske tilgange til brug af AI.
Hvordan fungerer stemmekloning?
Kort sagt, tillader stemmekloning en person at tale med en anden persons stemme.
Det bruger generative AI-teknologi til at oprette optagelser af en persons stemme og bruge dem til at generere nye lydindhold med samme persons stemme. Det giver i virkeligheden mulighed for, at mennesker kan høre, hvad nogen ville have sagt, selv om de ikke selv sagde det.
På den tekniske side ser tingene ikke ud til at være særlig komplicerede. Men hvis du dykker lidt dybere, er der nogle minimumskrav for at komme i gang:
- Du har brug for mindst 5 minutter af højkvalitets optagelser af kildestemmen for at klone den. Disse optagelser skal være klare og fri for baggrundsstøj eller andre forvrængninger, da enhver imperfektion kan påvirke modellens udgangs nøjagtighed.
- Herefter skal du føde disse optagelser ind i en generativ AI-model for at oprette en “stemme-avatar”.
- Derefter skal du træne modellen til at genskabe talemønstre i tonehøjde og timing.
- Når dette er fuldført, kan denne trænede model generere ubegrænset indhold ved hjælp af kildestemmen fra en anden person, og det bliver et effektivt værktøj til at skabe realistisk lydende replika-stemmer.
Dette er det punkt, hvor mange rejser etiske bekymringer. Hvad sker der, når vi kan indsætte enhver tekst i en anden persons mund, og det er umuligt at afgøre, om disse ord er ægte eller falske?
Ja, denne mulighed har for længst blevet en realitet. Som i tilfældet med OpenAI og ChatGPT står vi i øjeblikket over for en række etiske problemer, der ikke kan ignoreres.
Etiske standarder i AI
Som med mange andre nye teknologier i deres indledende stadier af anvendelse, er den største trussel skabelsen af en negativ stigma omkring teknologien snarere end at anerkende truslerne som en kilde til diskussion og værdifuld viden. Det vigtigste er at afsløre de metoder, som dårlige aktører bruger til at misbruge teknologien og dens produkter, anvende mitigationsværktøjer og fortsætte med at lære.
I dag har vi tre lag af rammer for etiske standarder vedrørende brugen af generative AI. De nationale og supranationale reguleringsslag er i deres indledende udviklingsstadie. Politikverdenen kan måske ikke holde trit med udviklingstempoet for den opdykkende teknologi, men vi kan allerede observere, at EU fører an med EU-forslaget om AI-regulering og 2022-kodeksen for god praksis om desinformation, der fastlægger forventningerne til, at store teknologivirksomheder skal tackle spredningen af ondsindet AI-manipuleret indhold. På nationalt niveau ser vi de første reguleringstrin i USA og Storbritannien med henblik på at tackle problemet med USAs National Deepfake og Digital Provenance Task Force og Storbritanniens Online Safety Bill.
Teknologibranchens lag bevæger sig hurtigere, da virksomheder og teknologer accepterer denne nye virkelighed, som det angår opdykkende teknologier og deres indvirkning på samfundssikkerhed og privatliv. Dialogen om etikken i generative AI er livlig og har banet vejen for udvikling af brancheeffort til kodifikation af adfærd omkring brugen af generative AI (f.eks. The Partnership on AI Synthetic Media Code of Conduct) og etiske udtalelser udgivet af forskellige virksomheder. Spørgsmålet er, hvordan man kan gøre adfærden praktisk? Og kan de påvirke produkter, specifikke funktioner og procedurer for hold?
Efter at have arbejdet med dette problem med en række forskellige medie- og underholdnings-, cybersikkerheds- og AI-etiske fællesskaber har jeg formuleret nogle praktiske principper for at håndtere AI-indhold og stemmer, især:
- IP-ejere og den virksomhed, der bruger den klonede stemme, kan undgå mange af de potentielle komplikationer, der er forbundet med brug af originale stemmer, ved at indgå juridiske aftaler.
- Projektejere skal offentligt afsløre brugen af en klonet stemme, så lytterne ikke bliver misledt.
- Virksomheder, der arbejder med AI-teknologi til stemme, skal allokerer en procentdel af ressourcerne til at udvikle teknologi, der kan detektere og identificere AI-genereret indhold.
- Mærkning af AI-genereret indhold med vandmærker muliggør stemmeautentificering.
- Hver AI-serviceudbyder skal gennemgå hver projektets virkning (samfundsmæssigt, forretningsmæssigt og privatlivsmæssigt) før de accepterer at arbejde på det.
Selvfølgelig vil principperne for etik i AI ikke påvirke spredningen af hjemmelavede deep fakes online. Men de vil drive enhver projekt i gråzonen ud af offentlighedens marked.
I 2021-22 blev AI-stemmer brugt i forskellige mainstream-projekter, der introducerede betydelige implikationer for etik og samfund. Disse inkluderer kloning af unge Luke Skywalkers stemme til Mandalorian-serien, AI-stemme til God of War 2 og Richard Nixons stemme til den historiske ‘In Event of Moon Disaster’.
Tilliden til teknologien er ved at vokse ud over medie- og underholdningsbranchen. Traditionelle virksomheder på tværs af mange brancher bruger klonede stemmer i deres projekter. Her er nogle af de mest fremtrædende brugs eksempler.
Branchespecifikke eksempler
I 2023 vil stemmekloning fortsætte sin opstigning sammen med forskellige virksomheder, der er klar til at høste dens mange fordele. Fra sundheds- og markedsføringssektoren til kundeservice- og reklamebranchen er stemmekloning ved at revolutionere, hvordan organisationer bygger relationer med deres kunder og strømliner deres arbejdsprocesser.
Stemme-kloning giver fordele for sundhedsprofessionelle og socialarbejdere, der arbejder i en online-miljø. Digitale avatarer med samme stemme som medicinske professionelle skaber stærkere bånd mellem dem og deres patienter, øger tilliden og fastholder kunder.
De potentielle anvendelser af stemmekloning i film- og underholdningsindustrien er enorme. Dubning af indhold til multiple sprog, børn og voksen ekstra dialoger (ADR) og en næsten uendelig række af tilpasningsmuligheder er alle muliggjort af denne teknologi.
På samme måde kan AI-dreven stemmekloning i operationssektoren give fremragende resultater for mærker, der har brug for omkostningseffektive løsninger til interaktive lydsvarsystemer eller virksomhedstræningsvideoer. Med stemmesyntesteknologi kan skuespillere udvide deres rækkevidde og øge deres evne til at tjene gebyr fra optagelser.
Endelig har opdukken af stemmekloning i reklameproduktionsstudier hjulpet betydeligt med at reducere omkostningerne og antallet af timer, der er forbundet med reklameproduktion. Så længe der er en højkvalitets optagelse tilgængelig til kloning (selv fra utilgængelige skuespillere), kan reklamer produceres hurtigt og mere kreativt end nogensinde før.
Interessant nok kan virksomheder og små og mellemstore virksomheder (SMB’er) udnytte stemmekloning til at skabe noget unikt for deres mærker. Store projekter kan realisere deres mest ambitiøse planer, mens små virksomheder kan få adgang til tidligere kostbare skalamodeller. Det er, hvad sand demokratisering betyder.
Afskedsord
AI-stemme-kloning tilbyder virksomheder spillende fordele, såsom skabelse af unikke kundeoplevelser, integration af naturlig sprogbehandling i deres produkter og tjenester og generering af højpræcise efterligninger af stemmer, der lyder helt ægte.
Virksomheder, der søger at fastholde deres konkurrencedygtighed i 2023, bør se på AI-stemme-kloning. Virksomheder kan bruge denne teknologi til at låse op for en række nye muligheder for at vinde markedsandel og fastholde kunder, mens de gør det på en etisk ansvarlig måde.












