stub Jak etycznie wykorzystywać głosy generatywnej sztucznej inteligencji w biznesie w 2023 r. — Unite.AI
Kontakt z nami

Liderzy myśli

Jak etycznie wykorzystywać głosy generatywnej sztucznej inteligencji w biznesie w 2023 r

mm
Zaktualizowano on

Koniec 2022 roku nastąpił tuż po tym, jak technologie AI zyskały szerokie zastosowanie dzięki oszałamiającej popularności OpenAI i ChatGPT. Po raz pierwszy sztuczna inteligencja zyskała popularność na rynku masowym, udowadniając swoją użyteczność i wartość w tworzeniu pomyślnych wyników biznesowych.

Wiele technologii sztucznej inteligencji, które dla zwykłych ludzi wydają się rewolucją w 2023 r., jest w rzeczywistości aktywnie wykorzystywanych przez duże firmy i media od kilku lat. Dołącz do mnie, gdy przyjrzę się bliżej technologii leżącej u podstaw tych rozwiązań, w szczególności generatywnym systemom AI do klonowania głosu, korzyściom biznesowym i etyce podejścia do korzystania ze sztucznej inteligencji.

Jak działa klonowanie głosu?

Krótko mówiąc, klonowanie głosu umożliwia jednej osobie mówienie głosem innej osoby.

Wykorzystuje technologię generatywnej sztucznej inteligencji do tworzenia nagrań głosu danej osoby i wykorzystywania ich do generowania nowych treści audio z głosem tej samej osoby. Zasadniczo pozwala ludziom usłyszeć, co ktoś by powiedział, nawet jeśli sam tego nie powiedział.

Od strony technicznej sprawa nie wydaje się zbyt skomplikowana. Jeśli jednak zanurkujesz trochę głębiej, na początek musisz spełnić pewne minimalne wymagania:

  1. Aby go sklonować, potrzebujesz co najmniej 5 minut wysokiej jakości nagranego dźwięku głosu źródłowego. Nagrania te powinny być wyraźne i wolne od szumów tła lub innych zniekształceń, ponieważ wszelkie niedoskonałości mogą mieć wpływ na dokładność wydruku modelu.
  2. Następnie wprowadź te nagrania do generatywnego modelu AI, aby utworzyć „awatar głosowy”.
  3. Następnie wytrenuj model, aby dokładnie odtwarzał wzorce mowy pod względem wysokości i czasu.
  4. Po ukończeniu ten wyszkolony model może generować nieograniczoną zawartość przy użyciu głosu źródłowego dowolnej innej osoby, stając się skutecznym narzędziem do tworzenia realistycznie brzmiących replik głosów.

Jest to moment, w którym wiele osób budzi wątpliwości natury etycznej. Co się stanie, gdy możemy włożyć do ust innej osoby dowolny tekst i nie da się stwierdzić, czy te słowa są prawdziwe, czy fałszywe?

Tak, taka możliwość już dawno stała się rzeczywistością. Podobnie jak w przypadku OpenAI i ChatGPT, stajemy obecnie przed szeregiem kwestii etycznych, których nie można zignorować.

Standardy etyczne w AI

Podobnie jak w przypadku wielu innych nowatorskich technologii znajdujących się na początkowych etapach wdrażania, głównym zagrożeniem jest stworzenie negatywnego piętna wokół technologii, a nie uznanie zagrożeń za źródło dyskusji i cennej wiedzy. Ważne jest ujawnienie metod stosowanych przez nieuczciwych aktorów w celu nadużywania technologii i jej produktów, stosowanie narzędzi łagodzących i kontynuowanie nauki. 

Obecnie mamy trzy warstwy ram standardów etycznych dotyczących wykorzystania generatywnej sztucznej inteligencji. Krajowe i ponadnarodowe warstwy regulacyjne znajdują się w początkowej fazie rozwoju. Świat polityki może nie nadąża za tempem rozwoju pojawiających się technologii, ale już możemy zaobserwować wiodącą rolę UE w tym zakresie Wniosek UE dotyczący rozporządzenia w sprawie sztucznej inteligencji i Kodeks postępowania w zakresie dezinformacji z 2022 r. w którym przedstawiono oczekiwania dużych firm technologicznych w zakresie przeciwdziałania rozpowszechnianiu złośliwych treści zmanipulowanych przez sztuczną inteligencję. Na poziomie krajowym widzimy pierwsze kroki regulacyjne podjęte przez Stany Zjednoczone i Wielką Brytanię w rozwiązaniu tej kwestii we współpracy ze Stanami Zjednoczonymi Krajowa grupa zadaniowa ds. fałszywych i cyfrowych źródeł pochodzenia i Wielkiej Brytanii Rachunek za bezpieczeństwo online

Warstwa branży technologicznej porusza się szybciej, w miarę jak firmy i technolodzy akceptują nową rzeczywistość dotyczącą pojawiających się technologii i ich wpływu na bezpieczeństwo społeczne i prywatność. Dialog na temat etyki generatywnej sztucznej inteligencji jest żywy i utorował drogę do opracowania inicjatyw branżowych dotyczących kodeksów postępowania dotyczących wykorzystania generatywnej sztucznej inteligencji (tj. Kodeks postępowania Partnerstwa na rzecz mediów syntetycznych AI) oraz oświadczenia etyczne wydane przez różne firmy. Pytanie brzmi: jak uczynić to zachowanie praktycznym? I czy są w stanie wpłynąć na produkty, specyficzne cechy i procedury zespołów? 

Pracując nad tym problemem z wieloma różnymi społecznościami zajmującymi się mediami i rozrywką, cyberbezpieczeństwem oraz etyką AI, sformułowałem kilka praktycznych zasad postępowania w szczególności z treściami i głosami AI: 

  1. Właściciele praw własności intelektualnej i firma korzystająca ze sklonowanego głosu mogą uniknąć wielu potencjalnych komplikacji związanych z używaniem oryginalnych głosów, podpisując umowy prawne.
  2. Właściciele projektów powinni publicznie ujawniać użycie sklonowanego głosu, aby słuchacze nie zostali wprowadzeni w błąd.
  3. Firmy pracujące nad technologią sztucznej inteligencji dla głosu powinny przeznaczyć pewien procent zasobów na rozwój technologii zdolnej do wykrywania i identyfikowania treści generowanych przez sztuczną inteligencję.
  4. Oznaczanie treści wygenerowanych przez sztuczną inteligencję znakami wodnymi umożliwia uwierzytelnianie głosowe.
  5. Każdy dostawca usług AI powinien dokonać przeglądu każdego projektu pod kątem jego wpływu (poziom społeczny, biznesowy i prywatność) przed wyrażeniem zgody na pracę nad nim.

Oczywiście zasady etyki w sztucznej inteligencji nie będą miały wpływu na rozprzestrzenianie się w Internecie domowych, głębokich podróbek. Wypchną jednak wszelkie projekty szare poza zasięg rynku publicznego.

W latach 2021–22 głosy sztucznej inteligencji były wykorzystywane w różnych głównych projektach, które miały istotne konsekwencje dla etyki i społeczeństwa. Te obejmowały klonowanie głosu młodego Luke'a Skywalkera dla serii Mandalorian, Głos AI w God of War 2, Głos Richarda Nixona w historycznym filmie „W przypadku katastrofy na Księżycu”.

Zaufanie do technologii rośnie nie tylko w mediach i rozrywce. Tradycyjne firmy z wielu branż wykorzystują w swoich projektach sklonowane głosy. Oto kilka najbardziej znanych przypadków użycia.

Przypadki użycia w branży

W 2023 r. klonowanie głosu będzie nadal zyskiwać na popularności, a różne firmy będą mogły czerpać z niego liczne korzyści. Od opieki zdrowotnej i marketingu po obsługę klienta i branżę reklamową, klonowanie głosu rewolucjonizuje sposób, w jaki organizacje budują relacje z klientami i usprawniają przepływ pracy.

Klonowanie głosu przynosi korzyści pracownikom służby zdrowia i pracownikom socjalnym pracującym w środowisku internetowym. Cyfrowe awatary mówiące tym samym głosem, co lekarze, wzmacniają więzi między nimi a pacjentami, zwiększając zaufanie i zatrzymując klientów.

Potencjalne zastosowania klonowania głosu w przemyśle filmowym i rozrywkowym są ogromne. Dzięki tej technologii możliwe jest kopiowanie treści na wiele języków, dodatkowa wymiana okien dialogowych dla dzieci i dorosłych oraz niemal nieskończona gama opcji dostosowywania.

Podobnie w sektorze operacyjnym klonowanie głosu oparte na sztucznej inteligencji może przynieść doskonałe rezultaty markom potrzebującym opłacalnych rozwiązań w zakresie interaktywnych systemów odpowiedzi głosowej lub korporacyjnych filmów szkoleniowych. Dzięki technologii syntezy głosu aktorzy mogą poszerzyć swój zasięg, jednocześnie zwiększając możliwości zarabiania na nagraniach.

Wreszcie w studiach zajmujących się produkcją reklam pojawienie się klonowania głosu pomogło znacznie obniżyć koszty i liczbę godzin związanych z produkcją komercyjną. Dopóki dostępne jest nagranie wysokiej jakości do klonowania (nawet od niedostępnych aktorów), reklamy można tworzyć szybciej i bardziej kreatywnie niż kiedykolwiek wcześniej.

Co ciekawe, przedsiębiorstwa i małe i średnie firmy mogą skorzystać z klonowania głosu, aby stworzyć coś wyjątkowego dla swoich marek. Duże projekty mogą zrealizować swoje najbardziej ambitne plany, podczas gdy małe firmy mogą uzyskać dostęp do wcześniej zaporowych modeli w skali. To właśnie oznacza prawdziwa demokratyzacja.

Zamykając

Klonowanie głosu AI oferuje firmom rewolucyjne korzyści, takie jak tworzenie unikalnych doświadczeń klientów, integrowanie możliwości przetwarzania języka naturalnego z ich produktami i usługami oraz generowanie bardzo dokładnych podróbek głosów, które brzmią całkowicie realnie.

Firmy, które chcą utrzymać przewagę konkurencyjną w 2023 r., powinny zainteresować się klonowaniem głosu AI. Firmy mogą korzystać z tej technologii, aby odblokować szereg nowych możliwości zdobycia udziału w rynku i zatrzymania klientów, robiąc to w sposób etycznie odpowiedzialny.

Anna jest dyrektorem ds. etyki i partnerstwa w firmie Badacz, nagrodzonej Emmy technologii klonowania głosu, działającej na Ukrainie. Anna jest byłym doradcą ds. polityki w Reface – aplikacji do mediów syntetycznych zasilanej sztuczną inteligencją i współzałożycielką techniczną narzędzia do przeciwdziałania dezinformacji Cappture, finansowanego przez program akceleracyjny Startup Wise Guys. Anna ma 11-letnie doświadczenie w polityce bezpieczeństwa i obrony, technologiach i budowaniu odporności. Jest byłym pracownikiem naukowym Międzynarodowego Centrum Obrony i Bezpieczeństwa w Tallinie oraz Praskiego Instytutu Studiów nad Bezpieczeństwem. Doradzała także głównym ukraińskim firmom w zakresie budowania odporności w ramach Grupy Zadaniowej ds. Wojny Hybrydowej w Kijowskiej Szkole Ekonomicznej.