tynkä Tekoälyn harha ja kulttuuriset stereotypiat: vaikutukset, rajoitukset ja lieventäminen - Unite.AI
Liity verkostomme!

Tekoäly

Tekoälyharha ja kulttuuriset stereotypiat: vaikutukset, rajoitukset ja lieventäminen

mm

Julkaistu

 on

Tekoälyharha ja kulttuuriset stereotypiat: vaikutukset, rajoitukset ja lieventäminen

Varsinkin tekoäly (AI). Generatiivinen AI, ylittää edelleen odotukset kyvyllään ymmärtää ja jäljitellä ihmisen kognitiota ja älykkyyttä. Kuitenkin monissa tapauksissa tekoälyjärjestelmien tulokset tai ennusteet voivat heijastaa erilaisia ​​tekoälyn vääristymiä, kuten kulttuurista ja rodullista.

Buzzfeedin "Maailman Barbit” blogi (joka on nyt poistettu) paljastaa selvästi nämä kulttuuriset ennakkoluulot ja epätarkkuudet. Nämä "barbit" luotiin käyttämällä Keskimatka – johtava tekoälykuvageneraattori selvittääkseen, miltä barbit näyttäisivät kaikkialla maailmassa. Puhumme tästä lisää myöhemmin.

Mutta tämä ei ole ensimmäinen kerta, kun tekoäly on "rasistinen" tai tuottanut epätarkkoja tuloksia. Esimerkiksi vuonna 2022 Apple oli haastaa syytöksien vuoksi, että Apple Watchin veren happianturi oli puolueellinen värillisiä ihmisiä kohtaan. Toisessa raportoidussa tapauksessa Twitterin käyttäjät havaitsivat sen Twitterin automaattinen kuvien rajaus AI suosi valkoisten kasvoja mustien ihmisten ja naisten miesten edelle. Nämä ovat kriittisiä haasteita, ja niihin vastaaminen on erittäin haastavaa.

Tässä artikkelissa tarkastelemme, mitä tekoälyharha on, miten se vaikuttaa yhteiskuntaamme, ja keskustelemme lyhyesti siitä, miten harjoittajat voivat Vähennä se vastaa haasteisiin, kuten kulttuurisiin stereotypioihin.

Mikä on AI Bias?

AI-harha tapahtuu, kun tekoälymallit tuottavat syrjiviä tuloksia tiettyjä väestöryhmiä kohtaan. Tekoälyjärjestelmiin voi tulla monenlaisia ​​harhoja, jotka voivat tuottaa vääriä tuloksia. Jotkut näistä AI-harhoista ovat:

  • Stereotyyppinen harha: Stereotyyppinen harha viittaa ilmiöön, jossa tekoälymallin tulokset koostuvat stereotypioista tai tunnetuista käsityksistä tietystä väestöryhmästä.
  • Rotuharha: Tekoälyn rotuharhaisuus tapahtuu, kun tekoälymallin tulos on syrjivä ja epäreilu yksilöä tai ryhmää kohtaan etnisen taustan tai rodun perusteella.
  • Kulttuurinen harha: Kulttuurinen harha tulee esiin, kun tekoälymallin tulokset suosivat tiettyä kulttuuria toisten edelle.

Harhaisuuden lisäksi muut asiat voivat haitata tekoälyjärjestelmän tuloksia, kuten:

  • Epätarkkuudet: Epätarkkuuksia ilmenee, kun tekoälymallin tuottamat tulokset ovat virheellisiä epäjohdonmukaisten harjoitustietojen vuoksi.
  • Hallusinaatiot: Hallusinaatioita esiintyy, kun tekoälymallit tuottavat kuvitteellisia ja vääriä tuloksia, jotka eivät perustu tosiasiatietoihin.

AI-harhaisuuden vaikutus yhteiskuntaan

Tekoälyn harhavaikutukset yhteiskuntaan voivat olla haitallisia. Puolueet tekoälyjärjestelmät voivat tuottaa epätarkkoja tuloksia, jotka vahvistavat yhteiskunnassa jo olemassa olevia ennakkoluuloja. Nämä tulokset voivat lisätä syrjintää ja oikeuksien loukkauksia, vaikuttaa rekrytointiprosesseihin ja heikentää luottamusta tekoälytekniikkaan.

Myös puolueelliset tekoälytulokset johtavat usein epätarkkoihin ennusteisiin, joilla voi olla vakavia seurauksia viattomille henkilöille. Esimerkiksi elokuussa 2020 Robert McDaniel joutui rikollisen teon kohteeksi, koska Chicagon poliisilaitoksen ennakoiva poliisialgoritmi merkitsi hänet "kiinnostavaksi henkilöksi".

Samoin puolueellisilla terveydenhuollon tekoälyjärjestelmillä voi olla akuutteja potilaiden seurauksia. Vuonna 2019 tiede havaitsi, että laajalti käytetty Yhdysvaltain lääketieteellinen algoritmi oli rasistisesti puolueellinen värillisiä ihmisiä kohtaan, mikä johti siihen, että mustat potilaat saivat vähemmän korkean riskin hoitoa.

Maailman Barbit

Heinäkuussa 2023, Buzzfeed julkaisi blogin Sisältää 194 tekoälyn luomaa barbieta eri puolilta maailmaa. Viesti levisi virukseksi Twitterissä. Vaikka Buzzfeed kirjoitti vastuuvapauslausekkeen, se ei estänyt nettiläisiä osoittamasta rodullisia ja kulttuurisia epätarkkuuksia. Esimerkiksi tekoälyn luoma kuva saksalaisesta Barbiesta oli pukeutunut a SS-natsi yleensä.

Barbies of the World -image5

Samoin tekoälyn luoma kuva Etelä-Sudanin Barbiesta näytettiin pitävän asetta kyljellään, mikä kuvastaa tekoälyalgoritmien syvälle juurtunutta harhaa.

Barbies of the World -image4

Tämän lisäksi useat muut kuvat osoittivat kulttuurisia epätarkkuuksia, kuten Qatar Barbiessa Ghutra, perinteinen arabimiesten käyttämä päähine.

Barbies of the World -image3

Tämä blogiviesti sai valtavan vastareaktion kulttuuristen stereotypioiden ja ennakkoluulojen vuoksi. The London Interdisciplinary School (LIS) kutsui tätä edustuksellinen haitta Tämä on pidettävä kurissa asettamalla laatustandardeja ja perustamalla tekoälyn valvontaelimiä.

AI-mallien rajoitukset

Tekoälyllä on potentiaalia mullistaa monia toimialoja. Mutta jos yllämainittujen kaltaiset skenaariot lisääntyvät, se voi johtaa tekoälyn yleisen käytön laskuun, mikä johtaa mahdollisuuksien menettämiseen. Tällaisia ​​tapauksia esiintyy tyypillisesti tekoälyjärjestelmien merkittävien rajoitusten vuoksi, kuten:

  • Luovuuden puute: Koska tekoäly voi tehdä päätöksiä vain annettujen harjoitustietojen perusteella, siltä puuttuu luovuus ajatella laatikon ulkopuolella, mikä vaikeuttaa luovaa ongelmanratkaisua.
  • Asiayhteysymmärryksen puute: Tekoälyjärjestelmillä on vaikeuksia ymmärtää alueen kontekstuaalisia vivahteita tai kielellisiä ilmaisuja, mikä johtaa usein virheisiin tuloksissa.
  • Harjoitteluharha: AI luottaa historiallisiin tietoihin, jotka voivat sisältää kaikenlaisia ​​syrjiviä näytteitä. Koulutuksen aikana malli voi helposti oppia syrjiviä malleja tuottaakseen epäoikeudenmukaisia ​​ja puolueellisia tuloksia.

Kuinka vähentää harhaa tekoälymalleissa

Asiantuntijat arvio että vuoteen 2026 mennessä 90 % verkkosisällöstä voitaisiin tuottaa synteettisesti. Siksi on elintärkeää minimoida nopeasti generatiivisten tekoälytekniikoiden ongelmat.

Useita keskeisiä strategioita voidaan toteuttaa vähentämään harhaa tekoälymalleissa. Jotkut näistä ovat:

  • Varmista tietojen laatu: Täydellisten, tarkkojen ja puhtaiden tietojen syöttäminen tekoälymalliin voi auttaa vähentämään harhaa ja tuottaa tarkempia tuloksia.
  • Monipuoliset tietojoukot: Erilaisten tietojoukkojen tuominen tekoälyjärjestelmään voi auttaa vähentämään harhaa, kun tekoälyjärjestelmä tulee ajan myötä kattavammaksi.
  • Laajemmat säännöt: Maailmanlaajuiset tekoälysäännöt ovat ratkaisevan tärkeitä tekoälyjärjestelmien laadun ylläpitämisessä yli rajojen. Tästä syystä kansainvälisten järjestöjen on tehtävä yhteistyötä tekoälyn standardoinnin varmistamiseksi.
  • Vastuullisen tekoälyn lisääntynyt käyttöönotto: Vastuulliset tekoälystrategiat auttavat vähentämään tekoälyn harhaa, edistämään tekoälyjärjestelmien oikeudenmukaisuutta ja tarkkuutta ja varmistamaan, että ne palvelevat monipuolista käyttäjäkuntaa ja pyrkivät jatkuvaan parantamiseen.

Yhdistämällä erilaisia ​​tietokokonaisuuksia, eettistä vastuuta ja avoimia viestintävälineitä voimme varmistaa, että tekoäly on positiivisen muutoksen lähde maailmanlaajuisesti.

Jos haluat oppia lisää puolueellisuudesta ja tekoälyn roolista yhteiskunnassamme, lue seuraavat blogit.