stub Hvordan bruke generative AI-stemmer etisk for virksomheten i 2023 - Unite.AI
Kontakt med oss

Tankeledere

Hvordan bruke generative AI-stemmer etisk for virksomheten i 2023

mm
oppdatert on

Slutten av 2022 kom i hælene på AI-teknologier som opplever utbredt bruk på grunn av den fantastiske populariteten til OpenAI og ChatGPT. For første gang oppnådde AI massemarkedsappell ved å bevise dens nytte og verdi for å skape vellykkede forretningsresultater.

Mange AI-teknologier som virker som en revolusjon for vanlige mennesker i 2023, har faktisk vært i aktiv bruk av store bedrifter og media i flere år. Bli med meg når jeg ser nærmere på teknologien som driver disse løsningene, spesielt generative AI-systemer for stemmekloning, dens forretningsfordeler og etiske tilnærminger til bruk av AI.

Hvordan fungerer stemmekloning?

Kort sagt, stemmekloning gjør det mulig for en person å snakke ved å bruke stemmen til en annen person.

Den bruker generativ AI-teknologi for å lage opptak av en persons stemme og bruke dem til å generere nytt lydinnhold med den samme personens stemme. Det lar i hovedsak folk høre hva noen ville ha sagt, selv om de ikke sa det selv.

På den tekniske siden ser ting ikke ut til å være veldig komplisert. Men hvis du dykker litt dypere, er det noen minimumskrav for å komme i gang:

  1. Du trenger minst 5 minutter med høykvalitets innspilt lyd av kildestemmen for å klone den. Disse opptakene skal være klare og fri for bakgrunnsstøy eller andre forvrengninger, da eventuelle ufullkommenheter kan påvirke nøyaktigheten til modellens utdata.
  2. Etter det kan du mate disse opptakene inn i en generativ AI-modell for å lage en "stemmeavatar."
  3. Tren deretter modellen til å gjengi talemønstre nøyaktig i tonehøyde og timing.
  4. Når den er fullført, kan denne trente modellen generere ubegrenset innhold ved å bruke kildestemmen til en hvilken som helst annen person, og bli et effektivt verktøy for å lage replikastemmer med realistisk klingende.

Dette er punktet hvor mange reiser etiske bekymringer. Hva skjer når vi kan sette inn tekst i en annen persons munn og det er umulig å si om disse ordene er ekte eller falske?

Ja, denne muligheten er for lengst blitt en realitet. Som i tilfellet med OpenAI og ChatGPT, står vi for øyeblikket overfor en rekke etiske problemer som ikke kan ignoreres.

Etiske standarder i AI

Som med mange andre nye teknologier i de første stadiene av adopsjon, er hovedtrusselen å skape et negativt stigma rundt teknologien i stedet for å anerkjenne truslene som en kilde for diskusjon og verdifull kunnskap. Det som er viktig er å avsløre metodene som dårlige aktører bruker for å misbruke teknologien og dens produkter, bruke avbøtende verktøy og fortsette å lære. 

I dag har vi tre lag med rammeverk for etiske standarder knyttet til bruk av generativ AI. De nasjonale og overnasjonale reguleringslagene er i sin innledende utviklingsfase. Politikkverdenen holder kanskje ikke tritt med hastigheten på utviklingen av fremvoksende teknologi, men vi kan allerede se at EU leder med EU-forslag om AI-forordning og 2022-kodeksen for desinformasjon som skisserer forventningene til store teknologiselskaper om å takle spredning av ondsinnet AI-manipulert innhold. På nasjonalt nivå ser vi regulatoriske første skritt fra USA og Storbritannia for å ta opp problemet med USAs National Deepfake and Digital Provenance Task Force og Storbritannias Online sikkerhetsregning

Teknologiindustriens lag beveger seg raskere ettersom selskaper og teknologer aksepterer denne nye virkeligheten når det gjelder nye teknologier og deres innvirkning på samfunnssikkerhet og personvern. Dialogen om etikken til generativ AI er levende og har ledet veien mot å utvikle industriinitiativer for etiske retningslinjer rundt bruken av generativ AI (dvs. The Partnership on AI Synthetic Media Code of Conduct) og etiske erklæringer utgitt av forskjellige selskaper. Spørsmålet er hvordan gjøre atferden praktisk? Og er de i stand til å påvirke produkter, spesifikke funksjoner og prosedyrene til teamene? 

Etter å ha jobbet med dette problemet med en rekke forskjellige medier og underholdnings-, cybersikkerhets- og AI-etikk-miljøer, har jeg formulert noen praktiske prinsipper for å håndtere AI-innhold og stemmer spesielt: 

  1. IP-eiere og selskapet som bruker den klonede stemmen kan unngå mange av de potensielle komplikasjonene forbundet med å bruke originale stemmer ved å signere juridiske avtaler.
  2. Prosjekteiere bør offentlig avsløre bruken av en klonet stemme slik at lytterne ikke blir villedet.
  3. Bedrifter som jobber med AI-teknologi for tale bør allokere en prosentandel av ressursene til å utvikle teknologi som er i stand til å oppdage og identifisere AI-generert innhold.
  4. Merking av AI-generert innhold med vannmerker muliggjør stemmeautentisering.
  5. Hver AI-tjenesteleverandør bør gjennomgå hvert prosjekt av dets innvirkning (samfunns-, forretnings- og personvernnivå) før de godtar å jobbe med det.

Selvfølgelig vil ikke prinsippene for etikk i AI påvirke spredningen av hjemmelagde dype forfalskninger på nettet. De vil imidlertid skyve eventuelle prosjekter i det grå utenfor rekkevidde av det offentlige markedet.

I 2021-22 ble AI-stemmer brukt i forskjellige mainstream-prosjekter som introduserte store implikasjoner for etikk og samfunn. Disse inkluderte kloning av unge Luke Skywalkers stemme for Mandalorian-serien, AI-stemme for God of War 2og Richard Nixons stemme for den historiske 'In Event of Moon Disaster'.

Tilliten til teknologien vokser utover media og underholdning. Tradisjonelle virksomheter på tvers av mange bransjer bruker klonede stemmer i sine prosjekter. Her er noen av de mest fremtredende brukstilfellene.

Bransjebrukssaker

I 2023 vil stemmekloning fortsette å øke sammen med ulike virksomheter som vil høste de mange fordelene. Fra helsevesen og markedsføring til kundeservice og reklameindustrien, stemmekloning revolusjonerer hvordan organisasjoner bygger relasjoner med kundene sine og effektiviserer arbeidsflytene deres.

Stemmekloning er til fordel for helsepersonell og sosialarbeidere som jobber i et nettbasert miljø. Digitale avatarer med samme stemme som medisinske fagfolk skaper sterkere bånd mellom dem og pasientene deres, øker tilliten og beholder kunder.

De potensielle bruksområdene for stemmekloning i film- og underholdningsindustrien er enorme. Dubbing av innhold til flere språk, ekstra dialog for barn og voksne (ADR), og en nesten uendelig rekke tilpasningsalternativer er alle muliggjort av denne teknologien.

På samme måte, i operasjonssektoren, kan AI-drevet stemmekloning gi utmerkede resultater for merker som trenger kostnadseffektive løsninger for interaktive stemmeresponssystemer eller bedriftsopplæringsvideoer. Med stemmesynteseteknologi kan skuespillere utvide rekkevidden samtidig som de øker evnen til å tjene rester fra opptak.

Til slutt, i reklameproduksjonsstudioer, har fremveksten av stemmekloning bidratt betydelig til å redusere kostnadene og antall timer forbundet med kommersiell produksjon. Så lenge det er et høykvalitetsopptak tilgjengelig for kloning (selv fra utilgjengelige skuespillere), kan annonser produseres raskt og mer kreativt enn noen gang før.

Interessant nok kan bedrifter og SMB-er dra nytte av stemmekloning for å skape noe unikt for merkevarene deres. Store prosjekter kan realisere sine mest ambisiøse planer, mens små bedrifter kan få tilgang til tidligere uoverkommelige skalamodeller. Det er det ekte demokratisering betyr.

Innpakning opp

AI-stemmekloning gir bedrifter spillendrende fordeler som å skape unike kundeopplevelser, integrere naturlige språkbehandlingsfunksjoner i produktene og tjenestene deres, og generere svært nøyaktige etterligninger av stemmer som høres helt ekte ut.

Bedrifter som ønsker å opprettholde konkurransefortrinnet i 2023, bør se nærmere på AI-stemmekloning. Bedrifter kan bruke denne teknologien til å låse opp en rekke nye muligheter for å vinne markedsandeler og beholde kunder samtidig som de gjør det på en etisk ansvarlig måte.

Anna er leder for etikk og partnerskap ved Referent, en Emmy-belønnet stemmekloningsteknologi basert i Ukraina. Anna er tidligere Policy Advisor hos Reface, en AI-drevet syntetisk medieapp og en teknisk medgründer av counter desinformation-verktøyet Cappture finansiert av Startup Wise Guys-akseleratorprogrammet. Anna har 11 års erfaring innen sikkerhets- og forsvarspolitikk, teknologier og motstandsbygging. Hun er tidligere stipendiat ved International Center for Defense and Security i Tallinn og Praha Security Studies Institute. Hun har også gitt råd til store ukrainske selskaper om motstandskraft som en del av Task Force for hybrid krigføring ved Kyiv School of Economics.