Connect with us

Jak používat generativní AI hlasy eticky pro podnikání v roce 2023

Myslitelé

Jak používat generativní AI hlasy eticky pro podnikání v roce 2023

mm

Konec roku 2022 přišel na konci vlny širokého přijetí technologií AI díky ohromující popularitě OpenAI a ChatGPT. Poprvé AI dosáhla masového trhu tím, že prokázala svou užitečnost a hodnotu při vytváření úspěšných obchodních výsledků.

Mnohé technologie AI, které se zdají být revolucí pro lidi v roce 2023, jsou ve skutečnosti již několik let používány velkými podniky a médii. Připojte se ke mně, když se podívám na technologii, která pohání tyto řešení, zejména generativní systémy AI pro klonování hlasu, jeho obchodní výhody a etické přístupy k používání AI.

Jak funguje klonování hlasu?

Stručně řečeno, klonování hlasu umožňuje jedné osobě mluvit pomocí hlasu jiné osoby.

Používá technologii generativního AI k vytváření nahrávek hlasu osoby a jejich použití k vytváření nových audioobsahů s týmž hlasem. Základní umožňuje lidem slyšet, co by někdo řekl, i když to sám nevyslovil.

Z technického hlediska se věci nezdají být příliš komplikované. Ale pokud se trochu více ponoříte, existují minimální požadavky pro začátek:

  1. Potřebujete alespoň 5 minut vysokokvalitních nahrávek zdrojového hlasu, aby jste jej mohli naklonovat. Tyto nahrávky by měly být čisté a bez pozadí nebo jiných zkreslení, protože jakékoli nedokonalosti by mohly ovlivnit přesnost výstupu modelu.
  2. Poté tyto nahrávky vložte do modelu generativního AI, aby vytvořil “hlasový avatar”.
  3. Poté vyškolte model, aby přesně reprodukoval vzorce řeči v tónu a časování.
  4. Jakmile bude dokončeno, tento vyškolený model může generovat neomezený obsah pomocí zdrojového hlasu jiné osoby, čímž se stává účinným nástrojem pro vytváření realisticky znějících replikovaných hlasů.

Toto je bod, ve kterém mnoho lidí vyjadřuje etické obavy. Co se stane, když budeme moci vložit jakýkoli text do úst jiné osoby a bude nemožné určit, zda jsou tato slova skutečná nebo falešná?

Ano, tato možnost se již dávno stala realitou. Stejně jako v případě OpenAI a ChatGPT目前 čelíme řadě etických problémů, které nelze ignorovat.

Etické standardy v AI

Stejně jako u mnoha jiných nových technologií ve svých počátečních fázích přijetí je hlavním hrozbou vytváření negativní stigma kolem technologie, spíše než uznání hrozeb jako zdroje diskuse a cenných znalostí. Co je důležité, je odhalit metody, které zneužívají technologii a její produkty, aplikovat nástroje pro zmírnění a pokračovat v učení.

Dnes máme tři vrstvy rámců pro etické standardy týkající se používání generativního AI. Národní a nadnárodní regulační vrstvy jsou ve své počáteční fázi vývoje. Svět politik může nezachytit rychlost vývoje nových technologií, ale již můžeme vidět, že EU vede s návrhem EU na regulaci AI a kódem z roku 2022 pro praxi v oblasti dezinformací, který stanoví očekávání pro velké technologické společnosti, aby řešily šíření zlomyslného obsahu manipulovaného AI. Na národní úrovni vidíme regulační první kroky USA a Spojeného království při řešení problému s Národním úkolem pro hluboké podvody a digitální prokazatelnost a zákonem o online bezpečnosti.

Vrstva technologií se pohybuje rychleji, protože společnosti a technici přijímají tuto novou realitu, jak se týká nových technologií a jejich dopadu na bezpečnost a soukromí společnosti. Dialog o etice generativního AI je živý a vedl cestu k vývoji iniciativ průmyslu pro kodexy chování při používání generativního AI (tj. Kodex chování pro syntetická média Partnership on AI) a etické prohlášení vydané různými společnostmi. Otázka je, jak udělat chování praktickým? A jsou schopni ovlivnit produkty, konkrétní funkce a postupy týmů?

Pracoval jsem na tomto problému s mnoha různými médii a zábavou, kybernetickou bezpečností a komunitami AI etiky, a formuloval jsem několik praktických principů pro nakládání s AI obsahem a hlasy, zejména:

  1. Majitelé duševního vlastnictví a společnost, která používá naklonovaný hlas, mohou避nout mnoho potenciálních komplikací spojených s používáním původních hlasů podepsáním právních dohod.
  2. Vlastníci projektu by měli veřejně prohlásit použití naklonovaného hlasu, aby nebyli posluchači zmátáni.
  3. Společnosti, které pracují na AI technologii pro hlas, by měly přidělit procento zdrojů na vývoj technologií, které jsou schopny detekovat a identifikovat AI generovaný obsah.
  4. Označení AI generovaného obsahu vodotiskem umožňuje ověřit hlas.
  5. Každý poskytovatel AI služeb by měl přezkoumat každý projekt z hlediska jeho dopadu (společenského, obchodního a úrovně soukromí) předtím, než souhlasí s prací na něm.

Samozřejmě, že principy etiky v AI neovlivní šíření domácích deep fakes online. Ale budou tlačit všechny projekty v šedé zóně mimo dosah veřejného trhu.

V letech 2021-22 byly AI hlasy použity v různých hlavních projektech, které měly značné důsledky pro etiku a společnost. Patří mezi ně klonování mladého Luke Skywalkera pro sérii Mandalorian, AI hlas pro God of War 2 a Richard Nixonův hlas pro historickou ‘In Event of Moon Disaster’.

Důvěra v technologii roste za hranicemi médií a zábavy. Tradiční podniky napříč mnoha průmyslovými odvětvími používají naklonované hlasy ve svých projektech. Zde jsou některé z nejvýznamnějších případů použití.

Případy použití v průmyslu

V roce 2023 bude klonování hlasu pokračovat ve svém růstu společně s různými podniky, které budou využívat jeho mnoha výhod. Od zdravotnictví a marketingu po zákaznickou službu a reklamní průmysl je klonování hlasu revolucí, jak organizace budují vztahy se svými klienty a optimalizují své pracovní postupy.

Klonování hlasu prospívá zdravotnickým pracovníkům a sociálním pracovníkům, kteří pracují v online prostředí. Digitální avatary s týmž hlasem jako zdravotničtí pracovníci vytvářejí silnější vazby mezi nimi a jejich pacienty, zvyšují důvěru a uchovávají zákazníky.

Potenciální aplikace klonování hlasu ve filmovém a zábavním průmyslu jsou rozsáhlé. Dubbing obsahu do více jazyků, děti a dospělí další dialogová náhrada (ADR) a téměř nekonečné možnosti přizpůsobení jsou všechny umožněny touto technologií.

Podobně v operačním sektoru může AI poháněné klonování hlasu přinést excelente výsledky pro značky, které potřebují nákladově efektivní řešení pro interaktivní hlasové odpovědi nebo firemní výcviková videa. Díky technologii syntézy hlasu mohou herci rozšířit svůj dosah a zvýšit svou schopnost vydělávat na svých nahrávkách.

Nakonec v reklamních produkčních studiích pomohlo klonování hlasu výrazně snížit náklady a počet hodin spojených s komerční produkcí. Pokud existuje vysokokvalitní nahrávka pro klonování (i z nedostupných herců), mohou být reklamy produkovány rychleji a kreativněji než kdykoli předtím.

Zajímavé je, že podniky a malé a střední podniky mohou využít klonování hlasu k vytvoření něčeho jedinečného pro své značky. Velké projekty mohou realizovat své nejambicióznější plány, zatímco malé podniky mohou získat přístup k dříve nákladově náročným modelům. To je to, co znamená skutečná demokratizace.

Závěr

Klonování hlasu AI nabízí podnikům převratné výhody, jako je vytváření jedinečných zákaznických zkušeností, integrace přirozeného jazykového zpracování do svých produktů a služeb a generování vysoce přesných napodobenin hlasů, které znějí naprosto reálně.

Podniky, které chtějí udržet svou konkurenceschopnost v roce 2023, by se měly podívat na klonování hlasu AI. Společnosti mohou použít tuto technologii k odemknutí řady nových možností, aby získaly tržní podíl a uchovávaly zákazníky, a to způsobem, který je eticky odpovědný.

Anna je vedoucí etiky a partnerství ve společnosti Respeecher, která je držitelem Emmy a specializuje se na technologii klonování hlasu se sídlem na Ukrajině. Anna je bývalá poradkyně pro politiku ve společnosti Reface, která je aplikací pro syntetická média poháněná umělou inteligencí, a je také technickou spoluzakladatelkou nástroje pro boj proti dezinformacím Cappture, který je financován akceleračním programem Startup Wise Guys. Anna má 11 let zkušeností v oblasti bezpečnostních a obranných politik, technologií a budování odolnosti. Byla také výzkumnou pracovnicí v Mezinárodním centru pro obranu a bezpečnost v Tallinnu a v Pražském institutu bezpečnostních studií. Rovněž poskytla poradenské služby významným ukrajinským společnostem v oblasti budování odolnosti jako součást Hybridní úkolu bojové skupiny na Kyjevské ekonomické škole.