Tankeledere
Hvordan byer setter i gang ledende teknologier som utnytter ubiasjerte AI-algoritmer

I dag berører nesten alle aspekter av vårt liv noen del av et nettverk. Mens dette uten tvil har forbedret mange områder av livet selv, som hvordan vi går rundt med håndholdte enheter som kan levere oss informasjon når som helst, stiller det også visse risikoer.
Disse risikoene går utenfor tradisjonell hacking og datalekkasjer inn i bankkontoer, for eksempel. Mer så er det jeg henviser til her at det er så mange deler av vårt liv i dag som påvirkes av algoritmer brukt av kunstig intelligens (AI). Vi antar at denne AI inneholdt ubiasjerte algoritmer som er i vårt beste interesse. Men hva skjer når feil typen bias kommer inn i disse algoritmene? Hvordan kan det påvirke visse resultater?
Hva skjer når forvrengte algoritmer infiltrerer AI-systemer?
For å tilby et annet eksempel, på YouTube, anbefaler en AI-algoritme nesten 70% av alle videoer, og på sosiale medier-plattformer som Instagram og TikTok, er prosenten enda høyere. Selv om disse AI-algoritmene kan hjelpe brukerne med å finne innhold de er interessert i, reiser de alvorlige personvernsproblemer, og det er økende bevis for at noe av det anbefalte innholdet folk forbruker på nettet er farlig på grunn av feilinformasjon eller kanskje inneholder en bestemt perspektiv som er designet for å påvirke en persons politiske tenkning eller tro sublimt.
Skapingen av en velavrustet, tilpassbar AI er en utfordrende teknisk og sosial innsats, men en av de største betydningene.
Det er forståelig hvordan AI kan ha en negativ innvirkning på sosiale normer og nettbruksmønster samtidig som det fokuserer på teknologiens positive effekter. Nettkilder har en betydelig innvirkning på vårt samfunn, og forvrengninger i nettalgoritmer vil utilsiktet fremme urettferdighet, forme folks tro, spre feilinformasjon og fremme konflikt blant ulike grupper.
Dette er der “dårlig AI” kan ha virkelig betydelige konsekvenser i forhold til uønskede og/eller urettferdige forvrengninger.
Hvordan forvrent AI kan påvirke trafikknutepunkter negativt
Ta trafikknutepunkter, som et mer virkelig eksempel. Lange ventetider ved trafikksignaler blir en ting av fortiden takket være nye AI-teknologier som settes i drift i markedene rundt om i landet. Disse Transit Priority-løsningene utnytter sanntids trafikdata og tilpasser lysene for å kompensere for endrede trafikkmønster, holde trafikken i gang og redusere køer.
Systemene bruker dypt læring, hvor et program forstår når det ikke gjør det bra og prøver en annen kurs – eller fortsetter å forbedre seg når det gjør fremgang.
Lyder som en god idé, ikke sant? Hva skjer hvis, over tid, AI-algoritmene innbygget i trafikksensorteknologien begynner å prioritere mer dyre kjøretøy over andre, basert på forvredde algoritmer som er designet for å gjenkjenne at folk som kjører en bestemt type kjøretøy fortjener prioritet over andre?
Dette er der “dårlig AI” kunne påvirke en veldig viktig del av vårt liv.
La oss ta for eksempel disse AI-drevne transit-prioritets-systemene som er en del av et større Intelligent Transport System (ITS) som utnytter kraften fra tilkoblede kjøretøyteknologier. ITS-systemer er bare like gode som de agnostiske skybaserte data-delingplattformene de opererer på, og ikke alle er skapt like.
Fjerning av bias i AI-algoritmer
Disse data-delingplattformene har vist seg å være svært effektive, men bare når byer og kommuner som overvåker transportsystemer åpner dem for ordentlig data-deling hvor forvredde algoritmer ikke er tillatt å delta. Dessverre forblir mange kommuner låst i kontrakter med hård- og enhetsleverandører som hevder å operere under “åpen arkitektur”, men som ikke er villige til å arbeide under en åpen data-plattform, og disse byene begrenser seg selv kraftig fra de sanne mulighetene som en skybasert plattform kan tilby.
Skybaserte transit-prioritets-systemer tar den globale bildet av et system i betraktning og bruker ubiasjert data-sentrert maskinlæring for å forutsi den optimale tid til å gi grønt lys til transitkjøretøy på akkurat rett tid. Det minimiserer interferens med kryssende ruter og maksimerer samtidig sannsynligheten for en kontinuerlig kjøretur. Enda viktigere er at den agnostiske skybaserte plattformen sikrer at byene utnytter et kontinuerlig oppdatert system for maksimalt transit-potensial, uten bias fra uønskede kilder.
Med denne teknologien nå lett tilgjengelig, har byer, utviklere og kommuner den teknologien de trenger for å raskt akselerere byggingen av intelligente transittnettverk til fordel for alle i regionen, rettferdig og likeverdig.
Regioner som byen San José utnytter nå fordelene med AI for å forbedre leveringen av tjenester til sine innbyggere. Mens byen stadig bruker AI-verktøy, er det viktigere enn noen gang å sikre at disse AI-systemene er effektive og pålitelige. Ved å gjennomgå algoritmene brukt i verktøyene, sikrer Digital Privacy Office (DPO) at byens AI-drevne teknologiske anskaffelser utfører nøyaktig, minimiserer bias og er pålitelige. Når en byavdeling ønsker å anskaffe et AI-verktøy, følger DPO spesifikke gjennomgangsprosesser for å vurdere fordelene og risikoene ved ethvert AI-system.
For denne regionen er vi stolte over å være en av de få godkjente AI-leverandørene som deltar i byomfattende teknologiske utrullinger på grunn av ubiasjerte algoritmer. Mens flere AI-teknologier blir utviklet, vil det være spesielt viktig å sikre at de bygges uten noen ubiasjerte algoritmer for å fremme en virkelig rettferdig og likeverdig bruk av lokale kommunale tjenester.












