никулец Како етички да ги користите генеративните гласови на вештачка интелигенција за бизнис во 2023 година - Unite.AI
Поврзете се со нас

Мислите лидери

Како етички да ги користите генеративните гласови на вештачка интелигенција за бизнис во 2023 година

mm
Ажурирани on

Крајот на 2022 година дојде веднаш по технологиите за вештачка интелигенција кои доживеаја широко усвојување поради неверојатната популарност на OpenAI и ChatGPT. За прв пат, вештачката интелигенција постигна привлечност на масовниот пазар со докажување на својата корисност и вредност во создавањето успешни деловни резултати.

Многу технологии за вештачка интелигенција кои изгледаат како револуција за секојдневните луѓе во 2023 година, всушност се во активна употреба од големите бизниси и медиуми веќе неколку години. Придружете ми се додека ја разгледувам одблизу технологијата што ги напојува овие решенија, особено, генеративните системи со вештачка интелигенција за гласовно клонирање, неговите деловни придобивки и етичките пристапи за користење на вештачката интелигенција.

Како функционира гласовното клонирање?

Накратко, гласовното клонирање му овозможува на едно лице да зборува користејќи го гласот на друго лице.

Таа користи генеративна технологија за вештачка интелигенција за да создаде снимки од гласот на една личност и да ги користи за да генерира нова аудио содржина со гласот на истата личност. Тоа во суштина им овозможува на луѓето да слушнат што некој би рекол, дури и ако самите не го кажале тоа.

На техничка страна, работите не изгледаат многу комплицирани. Но, ако нурнете малку подлабоко, има некои минимални барања за да започнете:

  1. Ви требаат најмалку 5 минути висококвалитетно снимено аудио на изворниот глас за да го клонирате. Овие снимки треба да бидат јасни и без бучава во позадина или други изобличувања, бидејќи сите несовршености може да влијаат на точноста на излезот на моделот.
  2. После тоа, внесете ги овие снимки во генеративен модел на вештачка интелигенција за да создадете „гласовен аватар“.
  3. Потоа, обучете го моделот прецизно да репродуцира говорни обрасци во висина и тајминг.
  4. Откако ќе се заврши, овој обучен модел може да генерира неограничена содржина користејќи го изворниот глас на која било друга личност, што ќе стане ефективна алатка за создавање реплика со реалистичен звук.

Ова е точката во која многумина покренуваат етички грижи. Што се случува кога можеме да вметнеме каков било текст во устата на друго лице и да е невозможно да се каже дали тие зборови се вистински или лажни?

Да, оваа можност одамна стана реалност. Како и во случајот со OpenAI и ChatGPT, во моментов се соочуваме со голем број етички прашања кои не можат да се игнорираат.

Етички стандарди во вештачката интелигенција

Како и со многу други нови технологии во почетната фаза на усвојување, главната закана е создавање негативна стигма околу технологијата наместо да се признаат заканите како извор за дискусија и вредно знаење. Она што е важно е да се разоткријат методите што лошите актери ги користат за да ја злоупотребат технологијата и нејзините производи, да применуваат алатки за ублажување и да продолжат да учат. 

Денес имаме три слоја рамки за етички стандарди кои се однесуваат на употребата на генеративна вештачка интелигенција. Националните и наднационалните регулаторни слоеви се во почетна фаза на развој. Светот на политиките можеби нема да биде во чекор со брзината на развој на новите технологии, но веќе можеме да забележиме дека ЕУ води со Предлог на ЕУ за регулатива за вештачка интелигенција Кодексот на пракса за дезинформации од 2022 година што ги опишува очекувањата големите технолошки компании да се справат со ширењето на злонамерна содржина манипулирана со вештачка интелигенција. На национално ниво, ги гледаме регулаторните први чекори од страна на САД и ОК во решавањето на проблемот со САД Национална работна група за Deepfake и Digital Provenance и на ОК Предлог-законот за безбедност на Интернет

Слојот на технолошката индустрија се движи побрзо бидејќи компаниите и технолозите ја прифаќаат оваа нова реалност што се однесува на новите технологии и нивното влијание врз општествената безбедност и приватноста. Дијалогот за етиката на генеративната вештачка интелигенција е жив и го води патот кон развивање индустриски иницијативи за Кодекси на однесување околу употребата на генеративна вештачка интелигенција (т.е. Кодекс на однесување на Партнерството за вештачка интелигенција за синтетички медиуми) и етички изјави објавени од различни компании. Прашањето е, како да се направи однесувањето практично? И, дали тие можат да влијаат на производите, специфичните карактеристики и процедурите на тимовите? 

Работејќи на овој проблем со голем број различни медиуми и заедници за забава, сајбер безбедност и етика на вештачката интелигенција, формулирав неколку практични принципи за справување со содржината и гласовите на вештачката интелигенција особено: 

  1. Сопствениците на IP и компанијата што го користи клонираниот глас може да избегнат многу од потенцијалните компликации поврзани со користењето оригинални гласови со потпишување правни договори.
  2. Сопствениците на проекти треба јавно да ја објават употребата на клониран глас за да не бидат заведени слушателите.
  3. Компаниите кои работат на технологијата за вештачка интелигенција за глас треба да одвојат процент од ресурсите за развој на технологија која е способна да открие и идентификува содржина генерирана од вештачка интелигенција.
  4. Обележувањето на содржината генерирана од вештачка интелигенција со водени жигови овозможува гласовна автентикација.
  5. Секој давател на услуги за вештачка интелигенција треба да го прегледа секој проект за неговото влијание (општествено, деловно и нивоа на приватност) пред да се согласи да работи на него.

Се разбира, принципите на етика во вештачката интелигенција нема да влијаат на ширењето на домашните длабоки фалсификати на интернет. Сепак, тие ќе ги туркаат сите проекти во сивило надвор од дофат на јавниот пазар.

Во 2021-22 година, гласовите на вештачката интелигенција беа користени во различни мејнстрим проекти кои воведоа големи импликации за етиката и општеството. Овие вклучуваат клонирање на гласот на младиот Лук Скајвокер за серијата Мандалоријан, ВИ глас за God of War 2, и Гласот на Ричард Никсон за историскиот „Во случај на катастрофа на Месечината“.

Довербата во технологијата расте надвор од медиумите и забавата. Традиционалните бизниси во многу индустрии користат клонирани гласови во нивните проекти. Еве неколку од најистакнатите случаи на употреба.

Случаи за употреба во индустријата

Во 2023 година, гласовното клонирање ќе го продолжи својот подем заедно со различни бизниси кои ќе ги искористат бројните придобивки. Од здравството и маркетингот до услугите на клиентите и рекламната индустрија, гласовното клонирање револуционизира како организациите градат односи со своите клиенти и ги насочуваат нивните работни процеси.

Гласовното клонирање им користи на здравствените работници и социјалните работници кои работат во онлајн опкружување. Дигиталните аватари со ист глас како и медицинските професионалци поттикнуваат поцврсти врски меѓу нив и нивните пациенти, зголемувајќи ја довербата и задржувајќи ги клиентите.

Потенцијалните апликации на гласовно клонирање во филмската и забавната индустрија се огромни. Синхронизирање содржина на повеќе јазици, дополнителна замена на дијалог за деца и возрасни (ADR) и речиси бесконечна низа опции за приспособување се овозможени со оваа технологија.

Слично на тоа, во оперативниот сектор, гласовното клонирање управувано со вештачка интелигенција може да даде одлични резултати за брендовите на кои им требаат економични решенија за интерактивни системи за гласовна реакција или видеа за корпоративна обука. Со технологијата за синтеза на глас, актерите можат да го прошират досегот додека ја зголемуваат нивната способност да заработат остатоци од снимките.

Конечно, во студијата за рекламна продукција, појавата на гласовно клонирање помогна значително да се намалат трошоците и бројот на часови поврзани со комерцијалната продукција. Сè додека постои висококвалитетна снимка достапна за клонирање (дури и од недостапни актери), рекламите може да се произведуваат брзо и покреативно од кога било досега.

Доволно интересно, претпријатијата и малите и средните претпријатија можат да ги искористат предностите на гласовното клонирање за да создадат нешто уникатно за нивните брендови. Големите проекти можат да ги остварат своите најамбициозни планови, додека малите бизниси можат да пристапат до моделите коишто претходно беа штедливи. Тоа е она што значи вистинска демократизација.

Завршувајќи

Гласовното клонирање со вештачка интелигенција им нуди на бизнисите придобивки што ги менуваат игрите, како што се создавање уникатни искуства на клиентите, интегрирање на способностите за обработка на природниот јазик во нивните производи и услуги и генерирање на високо прецизни имитации на гласови кои звучат сосема реално.

Бизнисите кои сакаат да ја одржат својата конкурентска предност во 2023 година треба да се занимаваат со клонирање на глас со вештачка интелигенција. Компаниите можат да ја користат оваа технологија за да отклучат различни нови можности за освојување удел на пазарот и задржување на клиентите додека го прават тоа на етички одговорен начин.

Ана е раководител на Одделот за етика и партнерства во Говорник, технологија за гласовно клонирање наградена со Еми со седиште во Украина. Ана е поранешен советник за политики во Reface, апликација за синтетички медиуми напојувана со вештачка интелигенција и технолошки ко-основач на алатката за контра дезинформации Cappture финансирана од програмата за забрзување на Startup Wise Guys. Ана има 11-годишно искуство во безбедносни и одбранбени политики, технологии и градење отпорност. Таа е поранешен научен соработник во Меѓународниот центар за одбрана и безбедност во Талин и Прага Институтот за безбедносни студии. Таа, исто така, ги советуваше големите украински компании за градење отпорност како дел од оперативната група за хибридна војна на Економското училиште во Киев.