výhonek Jak používat generativní hlasy AI eticky pro podnikání v roce 2023 - Unite.AI
Spojte se s námi

Myšlenkové vůdce

Jak eticky používat generativní hlasy AI pro podnikání v roce 2023

mm
aktualizováno on

Konec roku 2022 přišel na paty technologiím AI, které se rozšířily díky ohromující popularitě OpenAI a ChatGPT. Umělá inteligence poprvé dosáhla přitažlivosti pro masový trh tím, že prokázala svou užitečnost a hodnotu při vytváření úspěšných obchodních výsledků.

Mnoho technologií umělé inteligence, které se běžným lidem v roce 2023 zdají jako revoluce, jsou ve skutečnosti aktivně používány velkými podniky a médii již několik let. Připojte se ke mně, když se blíže podívám na technologii, která pohání tato řešení, zejména na generativní systémy umělé inteligence pro klonování hlasu, její obchodní výhody a etické přístupy k používání umělé inteligence.

Jak funguje klonování hlasu?

Stručně řečeno, klonování hlasu umožňuje jedné osobě mluvit pomocí hlasu jiné osoby.

Využívá generativní technologii AI k vytváření nahrávek hlasu osoby a používá je ke generování nového zvukového obsahu s hlasem stejné osoby. V podstatě umožňuje lidem slyšet, co by někdo řekl, i když to sami neřekli.

Po technické stránce se věci nezdají být příliš složité. Pokud se však ponoříte trochu hlouběji, je třeba začít s několika minimálními požadavky:

  1. K jeho naklonování potřebujete alespoň 5 minut vysoce kvalitního nahraného zvuku zdrojového hlasu. Tyto nahrávky by měly být čisté a bez šumu na pozadí nebo jiného zkreslení, protože jakékoli nedokonalosti by mohly ovlivnit přesnost výstupu modelu.
  2. Poté vložte tyto nahrávky do generativního modelu umělé inteligence, abyste vytvořili „hlasového avatara“.
  3. Poté trénujte model, aby přesně reprodukoval řečové vzory ve výšce a načasování.
  4. Po dokončení může tento vyškolený model generovat neomezený obsah pomocí zdrojového hlasu jakékoli jiné osoby a stává se účinným nástrojem pro vytváření realisticky znějících replik hlasů.

To je bod, kdy mnozí vzbuzují etické obavy. Co se stane, když můžeme vložit jakýkoli text do úst jiné osoby a není možné určit, zda jsou tato slova skutečná nebo falešná?

Ano, tato možnost se již dávno stala realitou. Stejně jako v případě OpenAI a ChatGPT se v současné době potýkáme s řadou etických problémů, které nelze ignorovat.

Etické standardy v AI

Stejně jako u mnoha jiných nových technologií v počátečních fázích přijetí je hlavní hrozbou spíše vytváření negativního stigmatu kolem technologie, než uznání hrozeb jako zdroje pro diskusi a cenné znalosti. Důležité je odhalit metody, které špatní aktéři používají ke zneužívání technologie a jejích produktů, aplikují zmírňující nástroje a pokračují ve vzdělávání. 

Dnes máme tři vrstvy rámců pro etické standardy týkající se používání generativní umělé inteligence. Národní a nadnárodní regulační vrstvy jsou v počáteční fázi vývoje. Politický svět možná nedrží krok s rychlostí vývoje nově vznikajících technologií, ale již nyní můžeme pozorovat, jak EU vede Návrh EU na nařízení o umělé inteligenci a Kodex dezinformací z roku 2022 který nastiňuje očekávání velkých technologických společností, jak se vypořádat s šířením škodlivého obsahu manipulovaného umělou inteligencí. Na národní úrovni vidíme první regulační kroky ze strany USA a Spojeného království při řešení problému s USA Národní pracovní skupina Deepfake a digitální provenience a UK Návrh zákona o bezpečnosti online

Vrstva technologického průmyslu se pohybuje rychleji, protože společnosti a technologové přijímají tuto novou realitu, pokud jde o vznikající technologie a jejich dopad na společenskou bezpečnost a soukromí. Dialog o etice generativní umělé inteligence je živý a vedl k rozvoji průmyslových iniciativ pro kodexy chování týkající se používání generativní umělé inteligence (tj. Kodex chování pro partnerství v oblasti syntetických médií AI) a etická prohlášení vydaná různými společnostmi. Otázkou je, jak toto chování učinit praktickým? A jsou schopni ovlivnit produkty, specifické funkce a postupy týmů? 

Poté, co jsem na tomto problému pracoval s řadou různých komunit v oblasti médií a zábavy, kybernetické bezpečnosti a etiky umělé inteligence, formuloval jsem několik praktických zásad, jak se konkrétně vypořádat s obsahem a hlasy AI: 

  1. Vlastníci IP a společnost, která používá klonovaný hlas, se mohou vyhnout mnoha potenciálním komplikacím spojeným s používáním originálních hlasů podepsáním právních dohod.
  2. Vlastníci projektů by měli veřejně zveřejnit použití klonovaného hlasu, aby posluchači nebyli uvedeni v omyl.
  3. Společnosti pracující na technologii AI pro hlas by měly vyčlenit určité procento zdrojů na vývoj technologie, která je schopna detekovat a identifikovat obsah generovaný AI.
  4. Označení obsahu generovaného umělou inteligencí vodoznaky umožňuje hlasové ověření.
  5. Každý poskytovatel služeb umělé inteligence by měl před souhlasem s prací na každém projektu přezkoumat jeho dopad (společenské, obchodní a soukromí).

Principy etiky v AI samozřejmě neovlivní šíření podomácku vyrobených deep padělků online. Jakékoli projekty v šedi však vytlačí z dosahu veřejného trhu.

V letech 2021–22 byly hlasy umělé inteligence používány v různých mainstreamových projektech, které přinesly závažné důsledky pro etiku a společnost. Tyto zahrnovaly klonování hlasu mladého Luka Skywalkera pro sérii Mandalorian, Hlas AI pro God of War 2, a Hlas Richarda Nixona pro historický „In Event of Moon Disaster“.

Důvěra v technologie roste i mimo média a zábavu. Tradiční podniky v mnoha průmyslových odvětvích používají ve svých projektech klonované hlasy. Zde je několik nejvýznamnějších případů použití.

Případy průmyslového použití

V roce 2023 bude klonování hlasu pokračovat ve svém vzestupu vedle různých podniků, které budou těžit z jeho četných výhod. Od zdravotnictví a marketingu až po služby zákazníkům a reklamní průmysl, hlasové klonování přináší revoluci ve způsobu, jakým organizace budují vztahy se svými klienty a zefektivňují jejich pracovní postupy.

Hlasové klonování je přínosem pro zdravotníky a sociální pracovníky, kteří pracují v online prostředí. Digitální avataři se stejným hlasem jako zdravotníci podporují silnější pouta mezi nimi a jejich pacienty, zvyšují důvěru a udržují zákazníky.

Potenciální aplikace klonování hlasu ve filmovém a zábavním průmyslu jsou obrovské. Tato technologie umožňuje kopírování obsahu do více jazyků, náhradu dialogů pro děti a dospělé (ADR) a téměř nekonečnou řadu možností přizpůsobení.

Podobně v provozním sektoru může klonování hlasu řízené umělou inteligencí přinést vynikající výsledky pro značky, které potřebují nákladově efektivní řešení pro interaktivní systémy hlasové odezvy nebo firemní školicí videa. Díky technologii hlasové syntézy mohou herci rozšířit svůj dosah a zároveň zvýšit svou schopnost získat zbytky z nahrávek.

A konečně, v reklamních produkčních studiích pomohl vznik klonování hlasu výrazně snížit náklady a počet hodin spojených s komerční produkcí. Dokud je k dispozici vysoce kvalitní záznam pro klonování (i od nedostupných herců), lze reklamy vytvářet rychle a kreativněji než kdykoli předtím.

Je zajímavé, že podniky a malé a střední podniky mohou využít klonování hlasu k vytvoření něčeho jedinečného pro své značky. Velké projekty mohou realizovat své nejambicióznější plány, zatímco malé podniky mají přístup k dříve cenově nedostupným zmenšeným modelům. To znamená skutečná demokratizace.

Balit

Hlasové klonování AI nabízí podnikům výhody, které mění hru, jako je vytváření jedinečných zákaznických zkušeností, integrace schopností zpracování přirozeného jazyka do jejich produktů a služeb a generování vysoce přesných zosobnění hlasů, které znějí zcela reálně.

Firmy, které si chtějí udržet svou konkurenční výhodu v roce 2023, by se měly podívat na klonování hlasu AI. Společnosti mohou pomocí této technologie odemknout řadu nových možností, jak získat podíl na trhu a udržet si zákazníky, a to eticky odpovědným způsobem.

Anna je vedoucí pro etiku a partnerství ve společnosti Respeecher, technologii klonování hlasu oceněnou Emmy se sídlem na Ukrajině. Anna je bývalá Policy Advisor ve společnosti Reface, což je aplikace pro syntetická média s umělou inteligencí a spoluzakladatelka technologického nástroje proti dezinformacím Cappture financovaného akceleračním programem Startup Wise Guys. Anna má 11 let zkušeností v oblasti bezpečnostní a obranné politiky, technologií a budování odolnosti. Je bývalou výzkumnou pracovnicí Mezinárodního centra pro obranu a bezpečnost v Tallinnu a Prague Security Studies Institute. Rovněž poskytovala poradenství velkým ukrajinským společnostem v oblasti budování odolnosti v rámci Task Force pro hybridní válku na Kyjevské ekonomické škole.