škrbina Kako etički koristiti generativne glasove umjetne inteligencije za poslovanje 2023. - Unite.AI
Povežite se s nama

Vođe misli

Kako etički koristiti generativne glasove umjetne inteligencije za poslovanje 2023

mm
Ažurirano on

Kraj 2022. došao je nakon AI tehnologija koje su doživjele široku primjenu zbog zapanjujuće popularnosti OpenAI-ja i ChatGPT-a. Po prvi put, AI je postigao privlačnost na masovnom tržištu dokazujući svoju korisnost i vrijednost u stvaranju uspješnih poslovnih rezultata.

Mnoge AI tehnologije koje se svakodnevnim ljudima čine kao revolucija u 2023. zapravo su u aktivnoj uporabi velikih poduzeća i medija već nekoliko godina. Pridružite mi se dok pobliže promatram tehnologiju koja pokreće ova rješenja, posebno generativne AI sustave za kloniranje glasa, njihove poslovne prednosti i etičke pristupe korištenju AI.

Kako funkcionira kloniranje glasa?

Ukratko, kloniranje glasa omogućuje jednoj osobi da govori koristeći glas druge osobe.

Koristi generativnu AI tehnologiju za stvaranje snimaka glasa osobe i njihovu upotrebu za generiranje novog audio sadržaja s glasom te iste osobe. U biti omogućuje ljudima da čuju što bi netko rekao, čak i ako to nisu sami rekli.

S tehničke strane stvari se ne čine baš kompliciranima. Ali ako zaronite malo dublje, postoje neki minimalni zahtjevi za početak:

  1. Za kloniranje potrebno vam je najmanje 5 minuta visokokvalitetnog snimljenog zvuka izvornog glasa. Te bi snimke trebale biti jasne i bez pozadinske buke ili drugih izobličenja jer bi bilo kakve nesavršenosti mogle utjecati na točnost rezultata modela.
  2. Nakon toga ubacite ove snimke u generativni AI model kako biste stvorili "glasovni avatar".
  3. Zatim uvježbajte model da precizno reproducira govorne obrasce u visini i vremenu.
  4. Nakon dovršetka, ovaj uvježbani model može generirati neograničeni sadržaj koristeći izvorni glas bilo koje druge osobe, postajući učinkovit alat za stvaranje replika glasova koji zvuče realistično.

Ovo je točka na kojoj mnogi izazivaju etičke probleme. Što se događa kada možemo umetnuti bilo koji tekst u usta druge osobe, a nemoguće je reći jesu li te riječi stvarne ili lažne?

Da, ta je mogućnost odavno postala stvarnost. Kao i u slučaju OpenAI-ja i ChatGPT-a, trenutno se suočavamo s brojnim etičkim problemima koji se ne mogu zanemariti.

Etički standardi u AI

Kao i kod mnogih drugih novih tehnologija u početnim fazama usvajanja, glavna prijetnja je stvaranje negativne stigme oko tehnologije umjesto priznavanja prijetnji kao izvora za raspravu i vrijednog znanja. Ono što je važno jest razotkrivanje metoda koje loši akteri koriste za zlouporabu tehnologije i njezinih proizvoda, primjenu alata za ublažavanje i nastavak učenja. 

Danas imamo tri sloja okvira za etičke standarde koji se odnose na korištenje generativne umjetne inteligencije. Nacionalni i nadnacionalni regulatorni slojevi su u početnoj fazi razvoja. Svijet politika možda ne drži korak s brzinom razvoja tehnologije u nastajanju, ali već možemo primijetiti da EU vodi s Prijedlog EU o Uredbi o umjetnoj inteligenciji i Kodeks prakse o dezinformacijama iz 2022 koji ocrtava očekivanja velikih tehnoloških tvrtki da se pozabave širenjem zlonamjernog sadržaja manipuliranog umjetnom inteligencijom. Na nacionalnim razinama vidimo prve regulatorne korake SAD-a i UK-a u rješavanju problema s Nacionalna radna skupina za Deepfake i digitalno podrijetlo i UK Račun za internetsku sigurnost

Sloj tehnološke industrije kreće se sve brže kako tvrtke i tehnolozi prihvaćaju ovu novu stvarnost koja se odnosi na tehnologije u nastajanju i njihov utjecaj na društvenu sigurnost i privatnost. Dijalog o etici generativne umjetne inteligencije je živahan i vodio je put prema razvoju industrijskih inicijativa za kodekse ponašanja oko upotrebe generativne umjetne inteligencije (tj. Kodeks ponašanja Partnerstva za sintetičke medije AI) i etičke izjave koje su objavile različite tvrtke. Pitanje je kako ponašanje učiniti praktičnim? I mogu li utjecati na proizvode, specifične značajke i postupke timova? 

Nakon što sam radio na ovom problemu s brojnim različitim zajednicama za medije i zabavu, kibernetičku sigurnost i etiku umjetne inteligencije, formulirao sam nekoliko praktičnih načela za postupanje sa sadržajem i glasovima umjetne inteligencije posebno: 

  1. Vlasnici IP-a i tvrtka koja koristi klonirani glas mogu izbjeći mnoge potencijalne komplikacije povezane s korištenjem originalnih glasova potpisivanjem pravnih ugovora.
  2. Vlasnici projekta trebali bi javno objaviti korištenje kloniranog glasa kako slušatelji ne bi bili dovedeni u zabludu.
  3. Tvrtke koje rade na tehnologiji umjetne inteligencije za glas trebale bi dodijeliti postotak resursa razvoju tehnologije koja je sposobna detektirati i identificirati sadržaj generiran umjetnom inteligencijom.
  4. Označavanje sadržaja generiranog umjetnom inteligencijom vodenim žigovima omogućuje glasovnu autentifikaciju.
  5. Svaki pružatelj usluga umjetne inteligencije trebao bi pregledati svaki projekt o njegovom utjecaju (društvene, poslovne i razine privatnosti) prije nego što pristane raditi na njemu.

Naravno, načela etike u umjetnoj inteligenciji neće utjecati na širenje dubokih krivotvorina kućne izrade online. No, one će sve projekte u sivilu gurnuti izvan dosega javnog tržišta.

U razdoblju 2021.-22., glasovi umjetne inteligencije korišteni su u različitim glavnim projektima koji su uveli velike implikacije na etiku i društvo. Ovo uključuje kloniranje glasa mladog Lukea Skywalkera za seriju Mandalorian, AI glas za God of War 2i Glas Richarda Nixona za povijesni 'In Event of Moon Disaster'.

Povjerenje u tehnologiju raste izvan medija i zabave. Tradicionalne tvrtke u mnogim industrijama koriste klonirane glasove u svojim projektima. Evo nekoliko najistaknutijih slučajeva upotrebe.

Slučajevi uporabe u industriji

U 2023. kloniranje glasa nastavit će svoj uspon uz razne tvrtke koje će iskoristiti njegove brojne prednosti. Od zdravstva i marketinga do korisničke službe i oglašivačke industrije, kloniranje glasa revolucionarizira način na koji organizacije grade odnose sa svojim klijentima i usmjeravaju svoje tijekove rada.

Kloniranje glasa koristi zdravstvenim radnicima i socijalnim radnicima koji rade u online okruženju. Digitalni avatari koji imaju isti glas kao i medicinski stručnjaci jačaju veze između njih i njihovih pacijenata, podižući povjerenje i zadržavajući klijente.

Potencijalne primjene kloniranja glasa u filmskoj i zabavnoj industriji su goleme. Presnimavanje sadržaja na više jezika, dodatna zamjena dijaloškog okvira za djecu i odrasle (ADR) i gotovo beskonačan niz mogućnosti prilagodbe omogućeni su ovom tehnologijom.

Slično tome, u operativnom sektoru, kloniranje glasa pomoću umjetne inteligencije može dati izvrsne rezultate za robne marke kojima su potrebna isplativa rješenja za interaktivne sustave glasovnog odgovora ili korporativne videozapise za obuku. S tehnologijom glasovne sinteze, glumci mogu proširiti svoj domet dok povećavaju svoju sposobnost zarađivanja ostataka od snimaka.

Konačno, u studijima za reklamnu produkciju, pojava kloniranja glasa pomogla je značajno smanjiti troškove i broj sati povezanih s komercijalnom produkcijom. Sve dok postoji visokokvalitetna snimka dostupna za kloniranje (čak i od nedostupnih glumaca), oglasi se mogu proizvesti brže i kreativnije nego ikad prije.

Zanimljivo je da poduzeća i mala i srednja poduzeća mogu iskoristiti kloniranje glasa kako bi stvorili nešto jedinstveno za svoje robne marke. Veliki projekti mogu ostvariti svoje najambicioznije planove, dok male tvrtke mogu pristupiti prije skupim modelima. To je ono što znači istinska demokratizacija.

Završavajući

AI kloniranje glasa nudi tvrtkama prednosti koje mijenjaju pravila poput stvaranja jedinstvenih korisničkih iskustava, integracije mogućnosti obrade prirodnog jezika u njihove proizvode i usluge i generiranja vrlo preciznih imitacija glasova koji zvuče potpuno stvarno.

Tvrtke koje žele zadržati svoju konkurentsku prednost u 2023. trebale bi razmotriti AI kloniranje glasa. Tvrtke mogu koristiti ovu tehnologiju za otključavanje niza novih mogućnosti za osvajanje tržišnog udjela i zadržavanje kupaca, a da to rade na etički odgovoran način.

Anna je voditeljica odjela za etiku i partnerstva u Repeecher, Emmyjem nagrađena tehnologija kloniranja glasa sa sjedištem u Ukrajini. Anna je bivša savjetnica za politiku u Refaceu, aplikaciji za sintetičke medije koju pokreće umjetna inteligencija i tehnička suosnivačica alata za protudezinformacije Cappture koji financira program akcelerator Startup Wise Guys. Anna ima 11 godina iskustva u sigurnosnim i obrambenim politikama, tehnologijama i izgradnji otpornosti. Bivša je znanstvena suradnica u Međunarodnom centru za obranu i sigurnost u Tallinnu i Praškom institutu za sigurnosne studije. Također je savjetovala velike ukrajinske tvrtke o izgradnji otpornosti kao dio Radne skupine za hibridno ratovanje na Kijevskoj školi ekonomije.