Connect with us

Ajatusjohtajat

Miten tehostaa tekoälyeetiikkaa?

mm

Tekoäly on prosessien optimoinnista, ei ihmisten poistamisesta niistä. Vastuu on edelleen tärkeää yleisemmässä ideassa, että tekoäly voi korvata ihmisiä. Vaikka teknologia ja automaattiset järjestelmät ovat auttaneet meitä saavuttamaan parempia taloudellisia tuloksia viime vuosisadalla, voivatko ne todella korvata palveluita, luovuutta ja syvää tietämystä? Uskon edelleen, etteivät ne voi, mutta ne voivat optimoida aikaa, jota kehitetään näissä aloissa.

Vastuu riippuu voimakkaasti immateriaalioikeuksista, teknologian vaikutuksen ennustamisesta yhteisöllisiin ja yksilöllisiin oikeuksiin ja tietojen turvallisuuden ja suojelun varmistamisesta koulutus- ja jakelumalleissa. Kun jatkamme teknologian kehittymistä, tekoälyeetiikan aihe on tullut yhä merkittävämmäksi. Tämä herättää tärkeitä kysymyksiä siitä, miten säänneltäisiin ja integroidaisiin tekoälyä yhteiskuntaan minimoiden potentiaaliset riskit.

Työskentelen läheisesti yhden tekoälyn osa-alueen, äänen kloonaamisen, kanssa. Ääni on tärkeä osa yksilön kaltaisuutta ja biometrista dataa, jota käytetään äänimallien kouluttamiseen. Kaltaisuuden (oikeudelliset ja poliittiset kysymykset), äänen tietojen turvallisuuden (tietosuojakäytännöt ja kyberturvallisuus) ja äänen kloonaamisen soveltamisen rajojen (eettiset kysymykset, jotka mittaavat vaikutusta) on arvioitava olennaista, kun rakennetaan tuotetta.

On arvioitava, miten tekoäly sopii yhteiskunnan normeihin ja arvoihin. Tekoälyn on sopeuduttava yhteiskunnan olemassaolevaan eettiseen kehykseen, varmistamalla, ettei se aiheuta lisäriskiä tai uhkaa vakiintuneita yhteiskunnallisia normeja. Teknologian vaikutus kattaa alueita, joilla tekoäly antaa valtuuttaa yhtä ryhmää yksilöitä ja poistaa toisia. Tämä eksistentiaalinen dilemma ilmenee jokaisessa kehityksen ja yhteiskunnallisen kasvun tai tuhon vaiheessa. Voiko tekoäly esittää enemmän virheellistä tietoa tietoverkkoihin? Kyllä. Miten hallitsemme tämän riskin tuotetasolla, ja miten opetamme käyttäjiä ja päättäjiä siitä? Vastaukset eivät ole itse teknologian vaaroissa, vaan siinä, miten pakkaamme sen tuotteisiin ja palveluihin. Jos meillä ei ole riittävästi työvoimaa tuotetiimeissä arvioidakseen teknologian vaikutusta, jäämme kiinni teknologian epäkohtien korjaamisen kierteessä.

Tekoälyn integrointi tuotteisiin herättää kysymyksiä tuoteturvallisuudesta ja tekoälyyn liittyvän vahingon estämisestä. Tekoälyn kehittämisessä ja toteutuksessa on priorisoitava turvallisuutta ja eettisiä huomioita, mikä vaatii resursseja asiaankuuluviin tiimeihin.

Jotta voidaan helpottaa tekoälyeetiikan toiminnallistamista, ehdotan tätä peruskiertoa tekoälyn eettisyyden tekemiseksi tuotetasolla:

1. Tutki tekoälyn oikeudellisia aspekteja ja sääntelyä, jos sääntelyä on olemassa. Nämä sisältävät EU:n tekoälylakia, digitaalista palvelulakia, Yhdistyneen kuningaskunnan verkkoturvallisuuslakia ja tietosuojalakia. Kehykset ovat kesken, ja niiden toteuttamiseen tarvitaan alan edelläkävijöiden (uusi teknologia) ja johtajien panos. Katso kohta (4), joka täydentää ehdotetun kierron.

2. Mieti, miten sovitamme tekoälytuotteita yhteiskunnan normeihin ilman lisäriskien aiheuttamista. Vaikuttaako se tietoturvaan tai työmarkkinoihin, tai loukkaako se tekijänoikeuksia ja immateriaalioikeuksia? Luo kriisiscenarioihin perustuva matriisi. Vedin tämän kansainvälisestä turvallisuustaustastani.

3. Määritä, miten yllä mainittuja asioita voidaan integroida tekoälytuotteisiin. Kun tekoäly kehittyy yhä monimutkaisemmaksi, on varmistettava, että se sopii yhteiskunnan arvoihin ja normeihin. On oltava proaktiivisia eettisten huomioitten arvioinnissa ja niiden integroinnissa tekoälyn kehittämiseen ja toteutukseen. Jos tekoälytuotteet, kuten generatiivinen tekoäly, uhkaavat levittää enemmän virheellistä tietoa, on otettava käyttöön lieventävät toimenpiteet, moderaatio, rajoitettu pääsy ydinTeknologiaan ja viestintä käyttäjien kanssa. On tärkeää, että tekoälytuotteissa on tekoälyeetikka- ja turvallisuustiimit, mikä vaatii resursseja ja yrityksen visiota.

Mieti, miten voimme osallistua ja muotoilla oikeudellisia kehyksiä. Parhaiden käytäntöjen ja poliittisten kehysten muodostaminen ei ole pelkästään muodikkaista puhetta, vaan ne ovat käytännön työkaluja, jotka auttavat uutta teknologiaa toimimaan avustavina työkaluina, eivät uhkina. Päättäjien, tutkijoiden, suurten teknologiayritysten ja uuden teknologian yhdistäminen on välttämätöntä yhteiskunnallisten ja liiketoiminnan etujen tasapainottamiseksi tekoälyä koskien. Oikeudelliset kehykset on sovitettava tekoälyn uuteen teknologiaan, varmistamalla, että ne suojelvat yksilöitä ja yhteiskuntaa ja edistävät samalla innovaatioita ja kehitystä.

Yhteenveto

Tämä on todella peruskierto tekoälyperusteisten uusien teknologioiden integroimiseksi yhteiskuntaamme. Kun jatkamme kamppailua tekoälyeetiikan monimutkaisuuksien kanssa, on olennaista pysyä sitoutuneena ratkaisujen löytämiseen, jotka priorisoivat turvallisuutta, eettisyyttä ja yhteiskunnallista hyvinvointia. Ja nämä eivät ole tyhjää puhetta, vaan se on vaikeaa työtä saada kaikki palat yhteen päivittäin.

Nämä sanat perustuvat omiin kokemuksiini ja johtopäätöksiini.

Anna on Respeecher-yrityksen eettisten ja kumppanuussuhteiden johtaja, joka on Emmy-palkittu äänenkloonaukseen erikoistunut teknologia, joka sijaitsee Ukrainassa. Anna on entinen Refacen politiikkaneuvonantaja, joka on tekoälykäyttöinen syntetisen median sovellus, ja hän on myös vastuussa disinformaation vastaisen työkalun Cappturen perustamisesta, jonka rahoittaa Startup Wise Guys -kiihdytysohjelma. Anna on 11 vuoden kokemus turvallisuus- ja puolustuspolitiikasta, -teknologioista ja -kestävyyden kehittämisestä. Hän on entinen tutkija Kansainvälisessä puolustus- ja turvallisuuskeskuksessa Tallinnassa ja Prahan turvallisuustutkimusinstituutissa. Hän on myös neuvonut suuria ukrainalaisia yrityksiä kestävyyden kehittämisestä osana Kyivin talouskoulun hybridisotatoimintaryhmää.