Connect with us

Kuinka käyttää generatiivisia ääniä eettisesti liiketoiminnassa vuonna 2023

Ajatusjohtajat

Kuinka käyttää generatiivisia ääniä eettisesti liiketoiminnassa vuonna 2023

mm

Vuoden 2022 loppu osui yhteen ajanjaksoon, jolloin älytekniikka koki laajan hyväksynnän johtuen OpenAI:n ja ChatGPT:n hämmästyttävän suosiosta. Ensimmäistä kertaa äly tekniikka saavutti massamarkkinoiden suosion osoittamalla sen hyödyllisyyden ja arvon luomassa onnistuneita liiketoimintatuloksia.

Monet älytekniikat, jotka näyttävät kuin vallankumous jokapäiväisille ihmisille vuonna 2023, ovat todellisuudessa olleet käytössä suurten yritysten ja median parissa useita vuosia. Liity minuun, kun otan lähemmän katseen teknologiaan, joka mahdollistaa nämä ratkaisut, erityisesti generatiiviset älyjärjestelmät äänen kloonaamiseen, sen liiketoimintahyödyt ja eettiset lähestymistavat älytekniikan käyttöön.

Kuinka äänen kloonaus toimii?

Lyhyesti, äänen kloonaus mahdollistaa yhden henkilön puhumisen toisen henkilön äänellä.

Se käyttää generatiivista älytekniikkaa luomaan äänitteitä henkilön äänestä ja käyttämään niitä luomaan uutta äänisisältöä samalla henkilön äänellä. Se mahdollistaa ihmisten kuulla, mitä joku olisi sanonut, vaikka he eivät itse sitä sanoneet.

Tekniseltä puolelta, asiat eivät näytä olevan erityisen monimutkaisia. Mutta jos mennään hieman syvemmälle, on olemassa joitakin vähimmäisvaatimuksia aloittamiseen:

  1. Tarvitset vähintään 5 minuuttia korkealaatuista äänitallennetta kloonattavasta äänestä. Nämä äänitteet tulisi olla selkeitä ja vapaat taustamelusta tai muista vääristymistä, koska mitkä tahansa virheet voivat vaikuttaa mallin tulosteen tarkkuuteen.
  2. Sen jälkeen syötä nämä äänitteet generatiiviseen älymalliin luomaan “ääniavatarin”.
  3. Sitten kouluta malli toistamaan puheen malleja sävelkorkeudessa ja ajoituksessa.
  4. Kun tämä on valmis, tämä koulutettu malli voi luoda rajattoman määrän sisältöä alkuperäisen henkilön äänellä, muodostaen tehokkaan työkalun luomaan realistisen kuuloisia ääniä.

Tässä vaiheessa monet herättävät eettisiä huolenaiheita. Mitä tapahtuu, kun voimme lisätä minkä tahansa tekstin toisen henkilön suuhun ja se on mahdotonta erottaa, ovatko sanat aitoja vai väärennettyjä?

Kyllä, tämä mahdollisuus on jo pitkään ollut todellisuus. Kuten OpenAI:n ja ChatGPT:n tapauksessa, kohtaamme parhaillaan useita eettisiä ongelmia, joita ei voida jättää huomiotta.

Eettiset standardit älyteknologiassa

Kuten monien muiden uusien teknologioiden alkuvaiheessa, pääuhka on luoda negatiivinen stigma teknologiaa kohtaan sen sijaan, että tunnustetaan uhkat keskustelun ja arvokkaan tiedon lähteenä. Se, mikä on tärkeää, on paljastaa menetelmät, joita huonot toimijat käyttävät hyväksikäyttämään teknologiaa ja sen tuotteita, soveltaa lieventämisvälineitä ja jatkaa oppimista. 

Tänään meillä on kolme kerrosta kehyksiä eettisiä standardeja koskien generatiivisen älytekniikan käyttöä. Kansalliset ja ylikansalliset sääntelykerrokset ovat alkuvaiheessa. Poliittinen maailma saattaa ei pysy älykkään teknologian kehityksen vauhdissa, mutta jo nyt voidaan havaita EU:n johtavan EU:n ehdotus älytekniikan sääntelystä ja Vuoden 2022 hyvän käytännön koodi tietojen väärästä joka määrittää odotukset suurten teknologiayritysten toiminnasta väärennetyn älytekniikan sisällön leviämisen torjumiseksi. Kansallisella tasolla nähdään sääntelytoimia Yhdysvalloissa ja Isossa-Britanniassa älytekniikan ongelman ratkaisemiseksi Yhdysvaltojen Kansallinen tehtävän Deepfake ja digitaalinen peräisin ja Isossa-Britanniassa Verkkoviranomaisuuslain

Teknologiayritysten kerros liikkuu nopeammin, koska yritykset ja teknologit hyväksyvät tämän uuden todellisuuden, joka liittyy älykkäisiin teknologioihin ja niiden vaikutuksiin yhteiskunnan turvallisuuteen ja yksityisyyteen. Keskustelu älytekniikan eettisyydestä on elävää ja on johtanut kehitykseen teollisuuden aloitteista älytekniikan käytön eettisistä ohjeista (esim. Älytekniikan kumppanuuden synteettisen median eettinen ohje) ja eettisistä lausumista, jotka eri yritykset ovat julkaisseet. Kysymys on, miten tehdä käytännössä? Ja voivatko ne vaikuttaa tuotteisiin, tiettyihin ominaisuuksiin ja tiimien menettelytapoihin? 

Työskennellessäni tämän ongelman parissa useiden eri median, viihteen, kyberTurvallisuuden ja älytekniikan eettisyyden yhteisöjen kanssa, olen muodostanut joitakin käytännön periaatteita älysisällön ja äänien käsittelemiseen: 

  1. Tekijänoikeuden omistajat ja yritys, joka käyttää kloonattua ääntä, voivat välttää monia mahdollisia ongelmia alkuperäisten äänten käytöstä allekirjoittamalla laillisia sopimuksia.
  2. Projektin omistajien tulisi julkisesti ilmoittaa kloonatun äänen käytöstä, jotta kuulijat eivät joudu harhaan.
  3. Yritykset, jotka työskentelevät älytekniikan parissa äänen kloonaamiseen, tulisi varata osa resursseistaan kehittämään teknologiaa, joka pystyy havaitsemaan ja tunnistamaan älytekniikalla luodun sisällön.
  4. Älytekniikalla luodun sisällön merkitseminen vesileimalla mahdollistaa äänen todennuksen.
  5. Jokaisen älypalvelun tarjoajan tulisi arvioida kunkin projektin vaikutuksia (yhteiskunnallinen, liiketoimintataso ja yksityisyys) ennen kuin suostuu työskentelemään siinä.

Tietysti älytekniikan eettiset periaatteet eivät vaikuta itse tehtyjen väärennettyjen äänten leviämiseen verkossa. Ne kuitenkin ajavat kaikki harmaan alueen projektit pois julkisesta markkinasta.

Vuonna 2021-22 älyäänet käytettiin eri valtavirran projekteissa, jotka esittivät merkittäviä vaikutuksia eettisyyteen ja yhteiskuntaan. Niihin kuului nuoren Luke Skywalkerin äänen kloonaus Mandalorian -sarjaan, älyääni Jumalan sota 2:een ja Richard Nixonin ääni historialliseen ‘Kuun onnettomuuden’ puheeseen.

Luottamus teknologiaan kasvaa median ja viihteen ulkopuolella. Perinteiset yritykset useilla aloilla käyttävät kloonattuja ääniä projekteissaan. Tässä on muutamia näkyvimpiä käyttötarkoituksia.

Teollisuuden käyttötarkoitukset

Vuonna 2023 äänen kloonaus jatkaa kasvuaan useiden yritysten kanssa, jotka hyödyntävät sen monia hyötyjä. Terveydenhuollosta ja markkinoinnista asiakaspalveluun ja mainontaan, äänen kloonaus muuttaa, miten organisaatiot rakentavat suhteita asiakkaidensa kanssa ja suorittavat työprosessejaan.

Äänen kloonaus hyödyttää terveydenhuollon ammattilaisia ja sosiaalityöntekijöitä, jotka työskentelevät verkossa. Digitaaliset avatarit, joissa on samat äänet kuin terveydenhuollon ammattilaisilla, lujittavat siteitä heidän ja potilaidensa välillä, lisäten luottamusta ja asiakasuskollisuutta.

Äänen kloonaamisen soveltamismahdollisuudet elokuva- ja viihdealaan ovat laajat. Sisällön dubbaus useille kielille, lasten ja aikuisten lisäpuhetehtävät (ADR) ja lähes ääretön määrä mukautusvaihtoehtoja ovat kaikki mahdollisia tämän teknologian ansiosta.

Vastaavasti toiminnan alalla älytekniikkaan perustuva äänen kloonaus voi tuottaa erinomaisia tuloksia brändeille, jotka tarvitsevat kustannustehokkaita ratkaisuja interaktiivisille äänivastausjärjestelmille tai yrityksen koulutusvideoille. Äänisynteesiteknologian avulla näyttelijät voivat laajentaa ulottuvuuttaan ja lisätä mahdollisuuksiaan ansaita rojaltien kautta äänitallenteista.

Lopulta mainosproduktiostudioissa äänen kloonaamisen kehittyminen on auttanut merkittävästi vähentämään mainosten tuotantokustannuksia ja -tunteja. Kunhan on saatavilla laadukas äänitallenne kloonaamista varten (jopa saatavilla olevilta näyttelijöiltä), mainokset voidaan tuottaa nopeasti ja luovasti kuin koskaan aiemmin.

Mielenkiintoista kyllä, yritykset ja pk-yritykset voivat hyödyntää äänen kloonausta luomaan jotain ainutlaatuisia brändeilleen. Suuret projektit voivat toteuttaa urheilunsa ja pienet yritykset pääsevät käsiksi aiemmin kalliisiin mittasuhteisiin. Se on todellista demokratisoitumista.

Yhteenveto

Älyäänen kloonaus tarjoaa yrityksille pelimuuttavan edun, kuten ainutlaatuisten asiakaskokemusten luomisen, luonnollisen kielen käsittelykyvyn integroimisen tuotteisiin ja palveluihin sekä erittäin tarkkojen jäljennösten luomisen, jotka kuulostavat täysin aidoilta.

Yritykset, jotka haluavat ylläpitää kilpailukykyään vuonna 2023, tulisi tutustua älyäänen kloonaamiseen. Yritykset voivat käyttää tätä teknologiaa lukuisiin uusiin mahdollisuuksiin markkinoiden osuuuden voittamiseksi ja asiakkaiden pitämiseksi eettisesti vastuullisella tavalla.

Anna on Respeecher-yrityksen eettisten ja kumppanuussuhteiden johtaja, joka on Emmy-palkittu äänenkloonaukseen erikoistunut teknologia, joka sijaitsee Ukrainassa. Anna on entinen Refacen politiikkaneuvonantaja, joka on tekoälykäyttöinen syntetisen median sovellus, ja hän on myös vastuussa disinformaation vastaisen työkalun Cappturen perustamisesta, jonka rahoittaa Startup Wise Guys -kiihdytysohjelma. Anna on 11 vuoden kokemus turvallisuus- ja puolustuspolitiikasta, -teknologioista ja -kestävyyden kehittämisestä. Hän on entinen tutkija Kansainvälisessä puolustus- ja turvallisuuskeskuksessa Tallinnassa ja Prahan turvallisuustutkimusinstituutissa. Hän on myös neuvonut suuria ukrainalaisia yrityksiä kestävyyden kehittämisestä osana Kyivin talouskoulun hybridisotatoimintaryhmää.