Tankeledere
Hvordan byer udvikler førende teknologier ved hjælp af upartiske AI-algoritmer

I dag berører næsten alle aspekter af vores liv en eller anden del af et online-netværk. Mens dette bestemt har forbedret mange områder af livet selv, såsom hvordan vi går rundt med håndholdte enheder, der kan levere os information på ethvert tidspunkt, stiller det også visse risici.
Disse risici går ud over traditionel hacking og dataudtræninger i vores bankkonti, for eksempel. Mere præcist, hvad jeg henviser til her, er, at der er så mange dele af vores liv i dag, der påvirkes af algoritmer, der bruges af kunstig intelligens (AI). Vi antager, at denne AI inherent udnytter algoritmer, der er i vores bedste interesse. Men hvad sker der, når den forkerte type bias indtræffer i disse algoritmer? Hvordan kan det påvirke visse resultater?
Hvad sker der, når biasede algoritmer infiltrerer AI-systemer?
For at give et andet eksempel, på YouTube, anbefaler en AI-algoritme næsten 70% af alle videoer, og på sociale medieplatforme som Instagram og TikTok er procentdelen endnu højere. Selvom disse AI-algoritmer kan hjælpe brugere med at finde indhold, de er interesseret i, rejser de alvorlige privatlivsproblemer, og der er voksende beviser for, at nogen af de anbefalede indhold, folk forbruger online, er farlige på grund af misinformations eller måske indeholder en vis perspektiv, der er designet til at underbevidst påvirke en persons politiske tanker eller overbevisninger.
Skabelsen af en velafbalanceret, tilpasningsdygtig AI er en svær teknisk og social opgave, men en af de største betydninger.
Det er forståeligt, hvordan AI kan have en negativ indvirkning på sociale normer og online-brugs mønster, mens man også fokuserer på teknologiens positive effekter. Online-kilder har en betydelig indvirkning på vores samfund, og bias i online-algoritmer vil utilsigtet fremme uretfærdighed, forme folks overbevisninger, sprede falske oplysninger og fremme konflikt mellem forskellige grupper.
Dette er, hvor “dårlig AI” kan have virkelig betydelige konsekvenser, sådan som det relaterer til uønskede og/eller uretfærdige bias.
Hvordan biasede AI kan påvirke trafikknudepunkter
Tag trafikknudepunkter som et mere virkeligt eksempel. Lange ventetider ved trafiklys er ved at blive en sag fra fortiden takket være nye AI-teknologier, der udvikles på markedet rundt om i landet. Disse Transit Priority-løsninger udnytter realtids-trafikdata og tilpasser lyset for at kompensere for ændringer i trafikmønsterne, så trafikken flyder og reducerer congestion.
Systemerne bruger deep learning, hvor et program forstår, når det ikke fungerer godt, og prøver en anden kurs – eller fortsætter med at forbedre, når det gør fremskridt.
Lyder som en god idé, ikke? Hvad sker der, hvis AI-algoritmernes indlejrede i trafiksensor-teknologien over tid begynder at prioritere mere dyre køretøjer over andre, baseret på biasede algoritmer, der er designet til at genkende, at folk, der kører en bestemt type køretøj, fortjener prioritet over andre?
Dette er, hvor “dårlig AI” kunne påvirke en meget vigtig del af vores liv.
Lad os tage for eksempel disse AI-drevne transit-prioritets-systemer, der er en del af et større Intelligent Transport System (ITS), der udnytter kraften fra connected vehicle-teknologier. ITS-systemer er kun så gode som de agnostiske cloud-baserede data-delingsplatforme, de opererer på, og ikke alle er skabt lige.
Eliminering af bias i AI-algoritmer
Disse data-delingsplatforme er blevet bevist højst effektive, men kun når byer og kommuner, der overvåger transportsystemer, åbner dem for ordentlig data-deling, hvor biasede algoritmer ikke er tilladt at deltage. Desværre forbliver mange kommuner låst i kontrakter med hardware- og enhedsleverandører, der påstår at operere under “åben arkitektur”, men er ikke villige til at arbejde under en åben data-platform, og disse byer begrænser sig selv kraftigt fra de sande muligheder, som en cloud-baseret platform kan give.
Cloud-baserede transit-prioritets-systemer tager det globale billede af et system i betragtning og bruger upartisk data-centreret maskinlæring til at forudsige det optimale tidspunkt at give grønt lys til transit-køretøjer på det rette tidspunkt. Det minimiserer indgreb i krydsende ruter og maksimerer samtidig sandsynligheden for en ubrudt kørsel. Endnu vigtigere er, at den agnostiske cloud-baserede platform sikrer, at byer udnytter et kontinuerligt opdateret system for maksimeret transit-potentiale, uden bias fra uønskede kilder.
Med denne teknologi nu let tilgængelig har byer, udviklere og kommuner den teknologi, de behøver for at korrekt accelerere opbygningen af intelligente transit-netværk til fordel for alle i regionen, retfærdigt og ligelig.
Regioner som byen San José udnytter nu fordelene ved AI for at forbedre leveringen af tjenester til dets borgere. Da byen stadig mere bruger AI-værktøjer, er det endnu vigtigere at sikre, at disse AI-systemer er effektive og pålidelige. Ved at gennemgå algoritmerne, der bruges i dens værktøjer, sikrer Digital Privacy Office (DPO), at byens AI-drevne teknologi-køb udføres nøjagtigt, minimiserer bias og er pålidelig. Når en byafdeling ønsker at anskaffe et AI-værktøj, følger DPO bestemte gennemgangsprocesser for at vurdere fordelene og risikoen for ethvert AI-system.
For denne specifikke region er vi stolte af at slutte os til selskaber som Google som en af de få godkendte AI-leverandører til at deltage i by-omfattende teknologi-udrulninger på grund af upartiske algoritmer. Da flere AI-teknologier fortsætter med at blive udviklet, vil det være særligt vigtigt at sikre, at de er bygget uden nogen upartiske algoritmer for en sandt retfærdig og ligelig brug af lokale kommunale tjenester.












