Connect with us

Thought leaders

Hoe steden leidende technologieën inzetten met behulp van onbevooroordeelde AI-algoritmen

mm

Vandaag de dag raakt vrijwel elk aspect van ons leven op de een of andere manier een online netwerk. Terwijl dit zeker veel gebieden van het leven zelf heeft verbeterd, zoals hoe we rondlopen met draagbare apparaten die ons op elk moment informatie kunnen leveren, houdt het ook bepaalde risico’s in.

Deze risico’s gaan verder dan traditionele hacking en datadiefstal uit onze bankrekeningen, bijvoorbeeld. Meer specifiek doel ik hier op dat er veel aspecten van ons leven vandaag de dag zijn die worden beïnvloed door algoritmen die door kunstmatige intelligentie (AI) worden gebruikt. We gaan ervan uit dat deze AI inherent algoritmen gebruikt die in ons beste belang zijn. Maar wat gebeurt er als het verkeerde type vooroordeel deze algoritmen binnendringt? Hoe kan dat sommige resultaten beïnvloeden?

Wat gebeurt er als vooroordeelde algoritmen AI-systemen binnendringen?

Om een ander voorbeeld te geven, op YouTube, beveelt een AI-algoritme bijna 70% van alle video’s aan, en op socialemediaplatforms zoals Instagram en TikTok is het percentage nog hoger. Hoewel deze AI-algoritmen gebruikers kunnen helpen om content te vinden die hen interesseert, roepen ze ernstige privacyproblemen op, en er is steeds meer bewijs dat sommige van de aanbevolen content die mensen online consumeren gevaarlijk zijn vanwege desinformatie of mogelijk een bepaalde visie bevatten die is ontworpen om iemands politieke denken of overtuigingen subliminaal te beïnvloeden.

De creatie van een goed afgerond, aanpasbaar AI is een moeilijke technische en sociale onderneming, maar een van de grootste betekenis.

Het is begrijpelijk hoe AI een negatieve invloed kan hebben op sociale normen en online gebruikspatronen, terwijl het zich ook richt op de positieve effecten van de technologie. Online bronnen hebben een aanzienlijke invloed op onze samenleving, en vooroordelen in online algoritmen zullen onbewust onrechtvaardigheid in stand houden, mensen geloven vormen, valse informatie verspreiden en conflicten tussen verschillende groepen creëren.

Dit is waar “slechte AI” echt significante gevolgen kan hebben in verband met ongewenste en / of oneerlijke vooroordelen.

Hoe vooroordeelde AI het verkeer op kruispunten nadelig kan beïnvloeden

Neem verkeerskruispunten, als een meer realistisch voorbeeld. Lange wachttijden bij verkeerslichten worden dankzij nieuwe AI-technologieën die op markten in het hele land worden ingezet, een ding van het verleden. Deze Transit Priority-oplossingen maken gebruik van real-time verkeersgegevens en passen de lichten aan om veranderingen in verkeerspatronen te compenseren, waardoor het verkeer blijft stromen en congestie wordt verminderd.

De systemen gebruiken deep learning, waarbij een programma begrijpt wanneer het niet goed presteert en een andere koers probeert – of blijft verbeteren wanneer het vorderingen maakt.

Klinkt als een geweldig idee, toch? Wat gebeurt er als de AI-algoritmen die in de verkeerssensortechnologie zijn ingebed, over tijd beginnen om duurdere voertuigen te prioriteren boven anderen, op basis van vooroordeelde algoritmen die zijn ontworpen om te erkennen dat mensen die een bepaald type voertuig besturen, prioriteit verdienen boven anderen?

Dit is waar “slechte AI” een zeer belangrijk deel van ons leven nadelig kan beïnvloeden.

Laten we bijvoorbeeld nemen dat deze AI-gebaseerde transitprioriteitssystemen deel uitmaken van een groter Intelligent Transportation System (ITS) dat de kracht van verbonden voertuigtechnologieën benut. ITS-systemen zijn alleen zo goed als de onbevooroordeelde, cloudgebaseerde dataplatforms waarop ze werken, en niet alle zijn gelijk.

Vooroordelen in AI-algoritmen elimineren

Deze dataplatforms zijn bewezen zeer effectief te zijn, maar alleen wanneer steden en gemeenten die het transportsysteem beheren, deze openstellen voor een juiste gegevensuitwisseling waarbij vooroordeelde algoritmen niet mogen deelnemen. Helaas blijven veel gemeenten vastzitten in contracten met hardware- en apparaatleveranciers die beweren te werken onder een “open architectuur”, maar niet bereid zijn om te werken onder een open dataplatform, en deze steden beperken zichzelf ernstig van de echte mogelijkheden die een cloudgebaseerd platform kan bieden.

Cloudgebaseerde transitprioriteitssystemen houden rekening met het globale beeld van een systeem en gebruiken onbevooroordeelde, gegevensgedreven machine learning om de optimale tijd te voorspellen om het groene licht te geven aan transitsvoertuigen op het juiste moment. Het minimaliseert de interferentie met kruisende routes en maximaliseert tegelijkertijd de kans op een continue rit. Nog belangrijker is dat het onbevooroordeelde, cloudgebaseerde platform ervoor zorgt dat steden een continu bijgewerkt systeem gebruiken voor een maximaal transitspotentieel, zonder vooroordelen van ongewenste bronnen.

Met deze technologie nu gemakkelijk beschikbaar, hebben steden, ontwikkelaars en gemeenten de technologie die ze nodig hebben om de bouw van intelligente transitsystemen naar behoren te versnellen, ten behoeve van iedereen in de regio, eerlijk en billijk.

Regio’s zoals de stad San José maken nu gebruik van de voordelen van AI om de levering van diensten aan hun inwoners te verbeteren. Naarmate de stad AI-hulpmiddelen vaker gebruikt, is het belangrijker dan ooit om ervoor te zorgen dat deze AI-systemen effectief en betrouwbaar zijn. Door de algoritmen te controleren die in hun hulpmiddelen worden gebruikt, zorgt het Digital Privacy Office (DPO) ervoor dat de AI-gebaseerde technologie-acquisities van de stad nauwkeurig presteren, vooroordelen minimaliseren en betrouwbaar zijn. Wanneer een afdeling van de stad een AI-hulpmiddel wil verwerven, volgt het DPO specifieke controleprocessen om de voordelen en risico’s van elk AI-systeem te beoordelen.

Voor deze specifieke regio zijn we trots om samen te werken met bedrijven zoals Google als een van de weinige goedgekeurde AI-leveranciers om deel te nemen aan stedelijke technologie-uitrol vanwege onbevooroordeelde algoritmen. Naarmate meer AI-technologieën worden ontwikkeld, zal het bijzonder belangrijk zijn om ervoor te zorgen dat ze zijn gebouwd zonder enige onbevooroordeelde algoritmen voor een echt eerlijke en billijke gebruik van lokale gemeentelijke diensten.

Timothy Menard is CEO en oprichter van LYT, een aanbieder van intelligente verbonden verkeerstechnologie die een cloud-gebaseerd platform biedt dat de Intelligent Transportation Systems van vandaag orkestreert.