Connect with us

Ajatusjohtajat

Kuka suojaa meitä AI:n tuottamalta disinformaatiolta?

mm

Generatiivinen tekoäly on edennyt nollasta sataan alle vuodessa. Vaikka se on vielä varhaisessa vaiheessa, se on osoittanut potentiaalinsa muuttaa liiketoimintaa. Tästä voimme kaikki olla yhtä mieltä. Eroamme siinä, miten sisälsi vaaroja, joita se aiheuttaa. 

Olen selkeästi innovaatioiden puolella, ja en pelkää uutta. Mutta viimeaikainen lisäys väärän tiedon levittämisessä — pääasiassa suunnattu polarisoitumiseen kiistanalaisista aiheista — on osoittanut, että jos jätetään valvomatta, gen. tekoäly voi aiheuttaa tuhoja yhteiskunnalle.

Olemme nähneet tämän ennen sosiaalisen median kanssa, mutta se vei vuosia ja kovia oppeja, jotta heräsimme sen virheisiin. Olemme (oletettavasti) oppineet jotain. Kysymys tänään on kuka auttaa hillitsemään gen. tekoälyn aiheuttamaa todellisuuden vääristymää, ja miten? 

Ennustettavasti, hallitukset alkavat toimia. Eurooppa on johtavana, kuten se on osoittanut tekniikan sääntelyssä. Yhdysvallat on perässä, ja Presidentti Biden antoi lokakuussa viime vuonna asetuksen.

Mutta se vaatii globaalin kylän toimimista yhdessä, jotta ”pidetään gen. tekoäly rehellisenä.” Ja ennen kuin hallitus voi auttaa, se tarvitsee ymmärtää saatavilla olevien lähestymistapojen rajoitukset.

Identiteetin ongelma on pahentunut

Tässä uudessa maailmassa totuus muuttuu neulaksi heinäsuovassa mielipiteitä, jotka naamiavat tosiasioiksi. Tiedon mihin sisältö tulee on tärkeämpää kuin koskaan aiemmin. 

Ja se ei ole yhtä helppoa kuin määrätä, että jokaisen sosiaalisen median tilin on oltava identiteetiltään varmistettu. Siihen on voimakasta vastustusta, ja joissakin tapauksissa anonyymius on tarpeen suojelemaan tilinomistajia. Lisäksi monet pahimman sisällön kuluttajat eivät piittaa siitä, onko se luotettavaa, eikä siitä, mistä se tulee. 

Nuo varaukset huomioon ottaen, identiteetin potentiaalinen rooli gen. tekoälyn hillitsemisessä on aliarvostettu. Skeptikot, kuulkaa minua. 

Kuvittelemme, että sääntely tai sosiaalinen omatunto saa alustat antamaan jokaiselle tilinomistajalle nämä valinnat: 

  1. Varmistaa identiteettinsä tai ei, ja
  2. Julkisesti paljastaa varmennetun identiteettinsä, tai vain merkitään ”ID Varmistettu”

Sitten sosiaalisen median yleisö voi paremmin päättää, kuka on luotettava. Yhtä tärkeää, jos ei tärkeämpää, identiteetti tukee vastuuta. Alustat voivat päättää toimista, joita tehdään toistuvasti ”disinformaattoreita” ja toistuvasti AI-sisällön väärinkäyttäjiä vastaan, vaikka he ilmestyvät eri tilinimillä. 

Gen. tekoälyn korostamiseksi uskon, että identiteetti — tietäminen tarkalleen kuka julkaisi mitä— on kriittinen. Jotkut vastustavat sitä, ja identiteetti ei ole kattava vastaus. Itse asiassa mikään ratkaisu ei tyydytä kaikkia sidosryhmiä. Mutta jos sääntely pakottaa alustat tarjoamaan identiteetin varmistamisen kaikille tileille, olen vakuuttunut, että vaikutus on suuri positiivinen. 

Sisällön moderaatio-ongelma

Sisällön moderaatio — automaattinen ja inhimillinen — on viimeinen puolustuslinja ei-toivottavaa sisältöä vastaan. Inhimillinen moderaatio on rankka työ, jossa on riski psyykkisestä vahingosta pahimman inhimillisen toiminnan altistumisesta. Se on myös kallista ja usein syytettyä harhaanjohtavasta sensuurista, jota alustat pyrkivät vähentämään.

Automaattinen moderaatio ylittää inhimillisen kapasiteetin käsitellä uuden sisällön tulvia, mutta se epäonnistuu ymmärtämään kontekstia (meemit ovat yleinen esimerkki) ja kulttuurisia nyansseja. Molemmat moderaation muodot ovat tärkeitä ja välttämättömiä, mutta ne ovat vain osa vastausta. 

Usein kuultu, perinteinen resepti gen. tekoälyn hallitsemiseksi on: ”Teknologiajohtajien, hallitusten ja kansalaisyhteiskunnan yhteistyö on tarpeen.” Totta, mutta mitä tarkalleen? 

Hallitukset osaltaan voivat pakottaa sosiaalisen ja median alustoja tarjoamaan identiteetin varmistamisen ja näyttämään sen kaikissa julkaisuissa. Sääntelijät voivat myös luoda uskottavuusmittareita, jotka auttavat arvioimaan, onko lähde uskottava. Yhteistyö on välttämätöntä kehittääksesi yleispäteviä standardeja, jotka antavat tarkkaa ohjeistusta ja suuntaa, jotta yksityissektori ei joudu arvaamaan.

Lopulta, pitäisikö olla laitonta luoda vaarallista AI-sisältöä? Lainsäädäntö, joka kieltää sisällön, joka on tarkoitettu laittomiin toimiin, voisi vähentää myrkyllisen sisällön määrää ja helpottaa moderaattorien työtä. En näe sääntelyä ja lakia kykenevän voittamaan disinformaation, mutta ne ovat olennaisia uhkan kohtaamisessa.

Aurinkoinen puoli: innovaatio

Innovaation lupausta tekee minusta optimistin. Emme voi odottaa, että poliitikot tai alustojen omistajat suojelevat meitä AI:n tuottamalta petoksesta. He jättävät suuren aukon, ja se on juuri se, mikä inspiroi uuden teknologian kehittämistä sisällön todentamiseksi ja väärennösten havaitsemiseksi. 

Koska tiedämme sosiaalisen median huonon puolen, olemme nopeasti tajunneet, että generatiivinen tekoäly voi osoittautua suureksi netto-negatiiviseksi ihmiskunnalle, sen kyvyn polarisoida ja harhauttaa. 

Optimistisesti näen hyötyjä moniaukkoisista lähestymistavoista, joissa valvontamenetelmät toimivat yhdessä, ensin lähteen, rajoittamalla laitonta käyttöä tarkoitettujen sisältöjen luomista. Sitten ennen julkaisua, varmista identiteetti niiden, jotka kieltäytyvät anonyymistä. Seuraavaksi, selkeät merkinnät osoittavat uskottavuusluokituksia ja julkaisijan identiteetin tai sen puutteen. Lopulta, automaattinen ja inhimillinen moderaatio voi suodattaa osan pahimmasta. Odotan uuden todentamisteknologian tulevan pian. 

Lisää kaikki yhteen, ja meillä on paljon parempi, vaikka ei täydellinen ratkaisu. Sillä välin meidän pitäisi kehittää taitojamme selvittääksemme, mikä on totta, kuka kertoo totuuden, ja kuka yrittää pettää meitä. 

Jeff Sakasegawa on Persona’s Trust & Safety -arkkitehti. Yli vuosikymmenen kokemuksella Trust & Safety -alalla yrityksissä kuten Google, Facebook, Square ja Sift, Jeff on asiantuntija Riskien hallinnassa ja vaatimustenmukaisuudessa. Hän on intohimoinen varmistamaan turvalliset verkkokokemukset kaikille käyttäjille.