Connect with us

Tankeledere

Varierte bruksområder for AI i verdens regjeringer

mm

I sin kerne innebærer kunstig intelligens at datamaskiner tar på seg jobber som tradisjonelt er gjort av mennesker. AI-populariteten vokser raskt og Gartner estimerer at markedet for denne programvaren vil nå 62 milliarder dollar ved slutten av 2022.

AI-programvare er enten programmer-drevet – det vil si at den vurderer informasjon som er innført av en person – eller data-drevet, det vil si at verdiene den analyserer er fra prøvedatasamlinger.

Selv om folk bruker AI i programvare hver dag, inkludert Amazons Alexa og Apples Siri, bruker også verdens regjeringer det til forskjellige formål.

Hvorfor vender regjeringer seg til AI?

Det er mange grunner til at regjeringer er interesserte i å bruke kunstig intelligens, inkludert:

  • Å spare tid og penger
  • Øke effektiviteten
  • Redusere sannsynligheten for menneskelig feil
  • Bequemlighet

Hvordan forskjellige verdens regjeringer bruker AI

AI er ikke fremtidens teknologi – det skjer nå, selv om det kanskje ikke er like det ser ut på TV-serier eller filmer.

Verdens regjeringer leder an i kunstig intelligens. Her er noen av de forskjellige bruksområdene for AI i verdens regjeringer:

Helse­tjenester

Regjeringer kan bruke AI til å overvåke spredningen av sykdommer gjennom kontakt­sporing, inkludert kryss­spor­ing av symptomene til pasienter på forskjellige steder. AI-teknologi kan også advare mennesker når en sykdoms­utbrudd kan skje.

AI kan også brukes til mer generelle helse­tjenester. For eksempel ble AI brukt i Australia til å påvise sepsis på sykehus.

Å forutsi et kriminal­tildragelse

AI-teknologi kan forutsi hvor kriminal­tildragelser kan skje ved å påvise mønster i politiets varme­karter. Men å bruke AI på denne måten har blitt kontroversielt. AI selv kan ikke være fordomsfullt, men dataene det mottar kan skape fordomsfulle resultater.

For eksempel viser studier at svarte voksne er 5,9 ganger mer sannsynlig å bli fengslet enn hvite mennesker, og hispanics er 3,1 ganger mer sannsynlig. AI-teknologi vil ikke gjenkjenne disse statistikkene som fordomsfulle. I stedet vil algoritmen gjøre antagelser basert på dataene som den er trent med. Derfor kan AI-teknologi forsterke diskriminerende atferd hvis dataene det er trent med oppmuntrer til det.

Overvåking

En av de mest kjente og kontroversielle måtene AI-teknologi brukes i regjeringer er for overvåking. Notorisk kan regjeringer bruke ansikts­gjen­kjennings­programvare til å overvåke borgere og identifisere enkeltpersoner basert på videoer eller bilder. Noen land, slik som Kina, perfeksjonerer sin egen overvåkings­teknologi før de eksporterer den til andre steder.

Mellom 2017 og 2019, 64 land verden over hevdet å ha adoptert ansikts­gjen­kjennings­systemer. Mange mennesker spør om etikkene ved å bruke AI til overvåkings­formål, med henvisning til problemer med personlig privatliv.

Selv­kjørende biler

Selv­kjørende skytter bruker AI-programvare til å transportere passasjerer på forhånds­bestemte ruter i byer, campus, nabolag og andre steder. Det er mye mulighet for økt veg­sikkerhet ved å bruke selv­kjørende biler og skytter.

Sosiale medier­overvåking

Kunstig intelligens kan overvåke Twitter-feeds og påvise når og hvor bil­ulykker skjer, hvilket hjelper regjeringer å håndtere trafikk­flyt og karbon­utslipp fra ulykker, samt holde borgere trygge.

Denne teknologien kan hjelpe nød­hjelpere og nød­personale å ankomme stedet raskere.

Personlig­gjort utdanning

Elever lærer i forskjellige faser, og AI kan brukes på klasserommet eller hjemme til å hjelpe elever å lære. AI-teknologi kan også hjelpe med å holde spor av elevens fremgang og bestemme hvor svakheter ligger.

Cyber­sikkerhet

Cyber­sikkerhets­modell­sertifiseringer (CMMC) beskytter selskaper mot cyber­angrep og -trusler. Å kombinere AI med CMMC kan være en mer effektiv måte å holde regjeringer trygge mot cyber­angrep og bestemme alvoret av forskjellige risikoer.

Farene ved å bruke AI i regjeringer

Det er to store problemer forbundet med regjeringens bruk av AI: mulig feil og det som kalles “black box”-problemet.

Selv om AI kan redusere sannsynligheten for data-inn­tastings- eller data-analysefeil, er ingen algoritme perfekt. Derfor er det en risiko for feil.

Neste, er det “black box”-problemet. Ettersom AI-algoritmer blir mer kompliserte, blir det mer vanskelig for vitenskapsmenn å følge hvordan de kom frem til en gitt konklusjon. De kan se den innførte dataen og resultatet, men ikke stegene som ble tatt for å nå resultatet.

Her er noen flere farer forbundet med å bruke AI i regjerings­applikasjoner:

Arbeid

Når mennesker tenker på fallgruvene ved kunstig intelligens, tenker de på dens mulige effekter på arbeid. Med mer avhengighet av AI kommer det potensielle for en reduksjon i jobb­tilgjengelighet. Et meget tilgjengelig eksempel er roboter som tar plassen til levende servitører i Japan og Singapore.

For­dom

Som nevnt, kan AI gjøre fordomsfulle antagelser basert på dataene det mottar. Hver gang det brukes i en stor kapasitet, bør det undergå strenge tester før det settes i drift.

Privat­liv

Regjeringer må sikre at all informasjon lagret av AI holdes sikker og trygg, særlig når det gjelder privat informasjon.

Å bruke kunstig intelligens trygt i regjering

Gull­regelen for kunstig intelligens er at den bare er like etisk som menneskene som lager den. Det er mange muligheter for verdens regjeringer å dra nytte av AI for å skape større kost­nads­effektivitet og øke produktiviteten. Men det er også ulemper ved AI-teknologi som må tas med i betraktning når den brukes mer og mer.

Zac Amos er en teknisk forfatter som fokuserer på kunstig intelligens. Han er også redaktør for artikler i ReHack, der du kan lese mer av hans arbeid.