stubs Kā ētiski izmantot ģeneratīvās mākslīgā intelekta balsis uzņēmējdarbībai 2023. gadā — Unite.AI
Savienoties ar mums

Domu vadītāji

Kā ētiski izmantot ģeneratīvās mākslīgā intelekta balsis uzņēmējdarbībai 2023. gadā

mm
Atjaunināts on

2022. gada beigas tuvojās mākslīgā intelekta tehnoloģijām, kuras tika plaši izmantotas OpenAI un ChatGPT satriecošās popularitātes dēļ. Pirmo reizi AI sasniedza masu tirgus pievilcību, pierādot savu lietderību un vērtību veiksmīgu biznesa rezultātu radīšanā.

Daudzas mākslīgā intelekta tehnoloģijas, kas 2023. gadā ikdienas cilvēkiem šķiet revolūcija, jau vairākus gadus ir aktīvi izmantojušas lielos uzņēmumus un plašsaziņas līdzekļus. Pievienojieties man, lai tuvāk apskatītu tehnoloģiju, kas nodrošina šos risinājumus, jo īpaši ģeneratīvās AI sistēmas balss klonēšanai, to biznesa priekšrocības un ētiskās pieejas AI lietošanai.

Kā darbojas balss klonēšana?

Īsāk sakot, balss klonēšana ļauj vienai personai runāt, izmantojot citas personas balsi.

Tas izmanto ģeneratīvo AI tehnoloģiju, lai izveidotu personas balss ierakstus un izmantotu tos, lai ģenerētu jaunu audio saturu ar šīs pašas personas balsi. Tas būtībā ļauj cilvēkiem dzirdēt, ko kāds būtu teicis, pat ja viņi paši to neteica.

No tehniskās puses lietas nešķiet īpaši sarežģītas. Bet, ja ienirt mazliet dziļāk, ir dažas minimālās prasības, lai sāktu:

  1. Lai to klonētu, ir nepieciešams vismaz 5 minūtes augstas kvalitātes ierakstītas avota balss audio. Šiem ierakstiem jābūt skaidriem un bez fona trokšņiem vai citiem kropļojumiem, jo ​​jebkādas nepilnības var ietekmēt modeļa izvades precizitāti.
  2. Pēc tam ievadiet šos ierakstus ģeneratīvā AI modelī, lai izveidotu “balss iemiesojumu”.
  3. Pēc tam apmāciet modeli precīzi reproducēt runas modeļus skaņas augstumā un laikā.
  4. Kad tas ir pabeigts, šis apmācītais modelis var ģenerēt neierobežotu saturu, izmantojot jebkuras citas personas avota balsi, kļūstot par efektīvu rīku reālistiski skanošu kopiju balsu radīšanai.

Tas ir punkts, kurā daudzi pauž bažas par ētiskiem jautājumiem. Kas notiek, ja mēs varam ievietot jebkuru tekstu citas personas mutē un nav iespējams noteikt, vai šie vārdi ir īsti vai viltoti?

Jā, šī iespēja jau sen ir kļuvusi par realitāti. Tāpat kā OpenAI un ChatGPT gadījumā, mēs šobrīd saskaramies ar vairākām ētikas problēmām, kuras nevar ignorēt.

Ētikas standarti AI

Tāpat kā ar daudzām citām jaunām tehnoloģijām to sākotnējās pieņemšanas stadijās, galvenais drauds ir radīt negatīvu stigmu ap tehnoloģiju, nevis atzīt draudus par diskusiju un vērtīgu zināšanu avotu. Svarīgi ir atklāt metodes, ko sliktie dalībnieki izmanto, lai ļaunprātīgi izmantotu tehnoloģiju un tās produktus, piemērotu mazināšanas rīkus un turpinātu mācīšanos. 

Šodien mums ir trīs līmeņi ētikas standartu ietvariem, kas attiecas uz ģeneratīvā AI izmantošanu. Nacionālais un pārnacionālais regulējuma līmenis ir sākotnējā attīstības stadijā. Politikas pasaule var nespēt līdzi jauno tehnoloģiju attīstības ātrumam, taču mēs jau tagad varam novērot ES vadošo pozīciju ES priekšlikums par mākslīgā intelekta regulu un 2022. gada dezinformācijas prakses kodekss kas iezīmē lielo tehnoloģiju uzņēmumu cerības cīnīties pret ļaunprātīga AI manipulēta satura izplatīšanu. Valstu līmenī mēs redzam, ka ASV un Apvienotā Karaliste veic pirmos regulējuma pasākumus, risinot problēmu ar ASV Nacionālā dziļo viltojumu un digitālās izcelsmes darba grupa un Lielbritānijas Tiešsaistes drošības rēķins

Tehnoloģiju nozares slānis virzās ātrāk, jo uzņēmumi un tehnologi pieņem šo jauno realitāti, jo tā attiecas uz jaunajām tehnoloģijām un to ietekmi uz sabiedrības drošību un privātumu. Dialogs par ģeneratīvā AI ētiku ir dinamisks un ir ļāvis izstrādāt nozares iniciatīvas rīcības kodeksiem saistībā ar ģeneratīvā AI izmantošanu (t. Partnerības AI sintētisko mediju rīcības kodekss) un dažādu uzņēmumu ētikas paziņojumi. Jautājums ir, kā uzvedību padarīt praktisku? Un vai tie var ietekmēt produktus, specifiskas funkcijas un komandu procedūras? 

Strādājot pie šīs problēmas ar vairākiem dažādiem plašsaziņas līdzekļiem un izklaides, kiberdrošības un AI ētikas kopienām, esmu formulējis dažus praktiskus principus, kā rīkoties ar AI saturu un jo īpaši balsīm. 

  1. IP īpašnieki un uzņēmums, kas izmanto klonēto balsi, var izvairīties no daudzām iespējamām komplikācijām, kas saistītas ar oriģinālo balsu izmantošanu, parakstot juridiskus līgumus.
  2. Projektu īpašniekiem ir publiski jāatklāj klonētas balss izmantošana, lai klausītāji netiktu maldināti.
  3. Uzņēmumiem, kas strādā ar AI tehnoloģiju balsij, ir jāpiešķir daļa resursu, lai izstrādātu tehnoloģiju, kas spēj atklāt un identificēt mākslīgā intelekta radīto saturu.
  4. AI radītā satura marķēšana ar ūdenszīmēm nodrošina balss autentifikāciju.
  5. Katram mākslīgā intelekta pakalpojumu sniedzējam ir jāpārskata katra projekta ietekme (sabiedrības, uzņēmējdarbības un privātuma līmenis), pirms piekrīt strādāt pie tā.

Protams, mākslīgā intelekta ētikas principi neietekmēs paštaisītu viltojumu izplatību tiešsaistē. Taču viņi visus pelēkos projektus izstums ārpus publiskā tirgus.

2021.–22. gadā AI balsis tika izmantotas dažādos plaši izplatītos projektos, kas ieviesa milzīgu ietekmi uz ētiku un sabiedrību. Tie iekļauti klonējot jaunā Lūka Skaivokera balsi Mandaloriešu seriālam, AI balss spēlei God of War 2, un Ričarda Niksona balss vēsturiskajai filmai "Mēness katastrofas gadījumā".

Pārliecība par tehnoloģijām pieaug ārpus medijiem un izklaides. Tradicionālie uzņēmumi daudzās nozarēs savos projektos izmanto klonētas balsis. Šeit ir daži no visievērojamākajiem lietošanas gadījumiem.

Izmantošanas gadījumi nozarē

2023. gadā balss klonēšana turpinās savu izaugsmi līdzās dažādiem uzņēmumiem, kas gūs tās daudzās priekšrocības. No veselības aprūpes un mārketinga līdz klientu apkalpošanai un reklāmas nozarei balss klonēšana maina to, kā organizācijas veido attiecības ar saviem klientiem un racionalizē savas darbplūsmas.

Balss klonēšana sniedz labumu veselības aprūpes speciālistiem un sociālajiem darbiniekiem, kuri strādā tiešsaistes vidē. Digitālie iemiesojumi, kuros ir tāda pati balss kā medicīnas profesionāļiem, veicina ciešāku saikni starp viņiem un viņu pacientiem, vairo uzticību un saglabā klientus.

Iespējamie balss klonēšanas pielietojumi filmu un izklaides industrijā ir plaši. Šī tehnoloģija nodrošina satura pārrakstīšanu vairākās valodās, papildu dialoglodziņu nomaiņu bērniem un pieaugušajiem (ADR) un gandrīz bezgalīgu pielāgošanas iespēju klāstu.

Līdzīgi operāciju sektorā mākslīgā intelekta vadīta balss klonēšana var dot lieliskus rezultātus zīmoliem, kuriem nepieciešami rentabli risinājumi interaktīvām balss atbildes sistēmām vai korporatīvajiem mācību video. Izmantojot balss sintēzes tehnoloģiju, aktieri var paplašināt savu sasniedzamību, vienlaikus palielinot spēju nopelnīt ierakstu atlikumus.

Visbeidzot, reklāmas ražošanas studijās balss klonēšanas parādīšanās ir palīdzējusi ievērojami samazināt izmaksas un stundu skaitu, kas saistītas ar komerciālo ražošanu. Kamēr klonēšanai ir pieejams augstas kvalitātes ieraksts (pat no nepieejamiem aktieriem), reklāmas var izveidot ātri un radošāk nekā jebkad agrāk.

Interesanti, ka uzņēmumi un MVU var izmantot balss klonēšanas priekšrocības, lai radītu kaut ko unikālu saviem zīmoliem. Lielie projekti var īstenot savus ambiciozākos plānus, savukārt mazie uzņēmumi var piekļūt iepriekš neizdevīgiem mēroga modeļiem. Lūk, ko nozīmē patiesa demokratizācija.

Ietīšanas up

AI balss klonēšana piedāvā uzņēmumiem mainīgas priekšrocības, piemēram, unikālas klientu pieredzes radīšanu, dabiskās valodas apstrādes iespēju integrēšanu savos produktos un pakalpojumos un ļoti precīzu balsu uzdošanos, kas izklausās pilnīgi reāli.

Uzņēmumiem, kas vēlas saglabāt savu konkurētspēju 2023. gadā, vajadzētu izpētīt AI balss klonēšanu. Uzņēmumi var izmantot šo tehnoloģiju, lai atvērtu dažādas jaunas iespējas iegūt tirgus daļu un noturēt klientus, vienlaikus darot to ētiski atbildīgā veidā.

Anna ir Ētikas un partnerattiecību nodaļas vadītāja Runātājs, Emmy apbalvotā balss klonēšanas tehnoloģija, kas atrodas Ukrainā. Anna ir bijusī politikas padomniece Reface, mākslīgā intelekta darbināmā sintētisko mediju lietotnē, kā arī līdzdibinātāja dezinformācijas apkarošanas rīkam Capture, ko finansē Startup Wise Guys akseleratora programma. Annai ir 11 gadu pieredze drošības un aizsardzības politikā, tehnoloģijās un noturības veidošanā. Viņa ir bijusī zinātniskā līdzstrādniece Starptautiskajā aizsardzības un drošības centrā Tallinā un Prāgas Drošības studiju institūtā. Viņa ir arī konsultējusi lielākos Ukrainas uzņēmumus noturības veidošanā kā daļa no Kijevas Ekonomikas augstskolas Hibrīdkara darba grupas.