Overvåkning
Er AI blitt bedre til å forutsie kriminalitet?
Sci-fi-bøker og filmer har forestilt seg en fremtid der politiet kan forutsie kriminalitet lenge før kunstig intelligens (AI) gjorde det mulig. Nå er det ikke bare en teoretisk mulighet, men en realitet, med flere byer som eksperimenterer med AI-drevet prediktiv politiarbeid. Likevel er det ikke nødvendigvis en vanlig praksis ennå, så hva står i veien?
Nøyaktighet og pålitelighet har vært problemer for alle prediktive analytiske applikasjoner gjennom årene. Likevel har teknologien modnet nok til å skape bølger over hele industrien, som produksjon og forsyningskjedeledelse. Er den derfor klar for en større utrulling i kriminalitetsprediksjon?
Tilstanden for kriminalitetspredikerende AI i dag
Prediktiv politiarbeid kan kanskje ikke være normen ennå, men det har sett noen store utviklinger de siste årene. Disse skrittene faller i tre brede kategorier — virkelige kriminalitetspredikerende AI, eksperimentelle studier og kunngjorte, men ikke-startede kriminalitetsprediksjonsprosjekter.
1. Positive virkelige resultater
Noen byer har allerede sett imponerende resultater fra AI-drevet prediktiv politiarbeid. Dubais politis generelle avdeling for kriminalitetssaker sier at alvorlig kriminalitet sank med 25% etter å ha implementert et AI-verktøy for å forutsie kriminalitet. Mindre alvorlig kriminell aktivitet sank med 7,1%.
Lignende mange AI-kriminalitetsprediksjonsverktøy, fungerer løsningen ved å analysere tidligere rapporter og sammenligne dem med nåværende forhold. Å høydepunkte trender i tidligere kriminalitet lar maskinlæringsmodellene identifisere områder og tider der lignende hendelser er sannsynlig å skje. Politiet kan deretter mobilisere ressurser i forkant for å avskrekke kriminalitet eller håndtere ting som kan føre til det før det skjer.
San Jose, California, har sett suksess fra en annen type AI-modell. Mens byen ikke forutsier kriminalitet ennå, detekterer hull i veien og graffiti med AI for å håndtere dem tidligere. Ifølge myndighetene, rengjøring av et område reduserer sannsynligheten for kriminell aktivitet der, så denne prosessen reduserer hendelser likevel.
2. Løftende eksperimentelle modeller
Ettersom prediktiv politiarbeid i virkeligheten vokser, har tidlig testing av lignende applikasjoner også vist løfte. I mange jurisdiksjoner, å rulle ut et kriminalitetsprediksjonsystem i fullt omfang, innebærer betydelige regulatoriske barrierer, som bremser teknologiens adopsjon. Eksempler i den eksperimentelle fasen skyver tingene fremover i mellomtiden.
En studie fra 2022 fra University of Chicago skapte en modell som kan forutsie kriminalitet med 90% nøyaktighet en uke i forkant. Mer viktig, er systemet mindre utsatt for fordommer enn eldre systemer, fordi det bruker forskjellige data. I stedet for å dele byen inn i nabolag eller politiske grenser, deler det den inn i distinkte og like store fliser for å gi en ny titt på området.
Bygging av digitale tvillinger av en by for å kartlegge kriminalitet langs et originalsistema, i stedet for å stole på eldre, fordomspregete rekorder, kan produsere mer pålitelige innsikter. Politistyrkene har ikke startet å bruke dette systemet ennå, men forskningen viser hva nye teknologier i dette feltet kan gjøre.
3. Kommende prediktive politiinvesteringer
Ser fremover, har flere områder nylig avduket AI-kriminalitetsprediksjonsmål. Disse prosjektene har ikke startet ennå, men deres fremkomst signaliserer en voksende skifte mot denne teknologien, kanskje fra økt tillit til dens effektivitet fra myndighetene.
I juli 2024 kunngjorde Argentinas sikkerhetsministerium planer for AI-kriminalitetsprediksjon og respons. Ifølge resolusjonen, skal politistyrkene analysere historiske kriminalitetsdata for å forutsie fremtidige hendelser og reagere deretter for å forhindre noe fra å skje. Det nevner også sanntidsanomalideteksjon, som kunne fungere i tandem med prediksjonsmodellen.
Mer nylig avduket Storbritannia at de arbeider på et mordprediksjonsverktøy for å identifisere personer som kan presentere den største risikoen for å bli voldelige kriminelle. Det er uklart hvordan myndighetene vil reagere på disse dataene, og det er motstridende rapporter om hva dataene løsningen vil bruke. Justisministeriet har sagt at prosjektet er for forskning kun på dette punktet, men forskning i dag kan føre til virkelige prosjekter i morgen.
Hvordan har AI-kriminalitetsprediksjon forbedret seg?
Disse nåværende og fremtidige prediktive politiapplikasjoner er langt fra de første eksemplene på denne teknologien. Likevel, de representerer en positiv skifte. Tidligere iterasjoner har ikke kunnet oppnå samme nivåer av nøyaktighet og pålitelighet. University of Chicagos løsning med 90% nøyaktighet og Dubais 25% reduksjon i alvorlig kriminalitet, er langt ifra tidligere forsøk.
I 2024 betalte Pasco County, Floridas, sheriffkontor en erstatning på 105 000 dollar og stengte ned sitt prediktive politiprogram etter dårlige resultater. Systemet resulterte i at politiet gjentatte ganger besøkte og sogar arresterte borgere som ikke hadde begått kriminalitet ennå, basert på AI-modellens prediksjoner.
Liknende, stengte Chicago ned sin kriminalitetsprediksjonsmodell etter flere klager. Studier fant at systemet ikke hadde noen betydelig effekt på skytevåpen-relatert kriminalitet, til tross for en økning i arrest-sannsynlighet. Mer bekymringsfullt, avslørte forskning hvordan algoritmen var innebygget rasistisk, og gjorde det mer sannsynlig at personer av farge ville bli arrestert.
En annen populær løsning brukt av flere byer, Geolitica, som tidligere gikk under navnet PredPol, viste bare 0,6% nøyaktighet når det gjaldt å forutsie alvorlige overfall. Nøyaktighetsraten for innbrudd var bare 0,1% i noen områder.
I sammenligning med disse feilede programmene, er nyere AI-kriminalitetsprediksjoner bemerkelsesverdig nøyaktige. Mens det ikke har vært like mange historier om virkelige politistyrker som bruker disse mer avanserte løsningene, tidlige resultater tegner et skarpt kontrast mellom AI i går og AI i dag.
Den mørke siden av AI i kriminalitetsprediksjon
Det er lett å se hvorfor så mange jurisdiksjoner investerer i AI-kriminalitetsprediksjon. Å stoppe kriminell aktivitet før den starter, er en enorm gevinst for offentlig sikkerhet, og AI kan detektere trender som kan være motsatt av menneskelige antagelser. For eksempel, mer enn halvparten av alle innbrudd skjer om dagen, til tross for den vanlige troen på at de er mer sannsynlig om natten. AI kan se gjennom hva som synes sant for å finne faktiske trender.
Samtidig, bærer prediktiv politiarbeid betydelige bekymringer om personvern og etikk. Det er en grunn til at 52% av amerikanerne er mer bekymret om AI enn de er begeistret for det. Selv de mest avanserte modellene er utsatt for hallucinasjon, og AI har en rekord for å videreformidle, til og med overdrive, menneskelig fordom når de er trenet på fordomsfulle data.
Historiske kriminalitetsdata er potensielt misrepresentativt til beste, og innebygget rasistisk til verste. Arrest-rekorder kan signifisere områder som er mer tungt politibevoktede enn de reflekterer faktisk kriminalitet. Derfor kan dataene reflektere langvarige rasistiske fordommer, som har en vel-dokumentert historie i lovverket.
AI-modeller som lærer fra fordomsfulle data, kan føre til at politiet patruljerer sorte nabolag mer tungt eller er mer mistenksomme overfor personer av farge. Chicago- og Pasco County-tilfellene viser akkurat det. Som følge, kan avhengighet av AI-prediksjoner uten å anerkjenne disse fordommene, kunne øke den urettferdige behandlingen av historisk over-politiserte og underprivilegerte demografi.
Rasistisk urettferdighet til side, kan innhenting av så mye data om borgere føre til personvern-risiko. Regjeringsetater er den åttende mest utsatte industrien for cyberkriminalitet, så et brudd fra et prediktivt politimodell er høyst mulig, i tillegg til å være skadelig. Selv om ingen cyberangrep lykkes, overvåking av borgere fordi de kanskje kan begå en kriminalitet, reiser spørsmål om overvåking og rettferdig prosess.
AI-kriminalitetsprediksjon er forbedret, men bekymringer består
AI-kriminalitetsprediksjonsmodeller er langt mer nøyaktige i dag enn de var for noen år siden. Likevel, bekymringer om fordommer, effektivitet og rettferdighet er fremdeles fremtredende. Politikere og AI-selskaper må håndtere disse problemene for å sikre at denne teknologien kan faktisk gi en tryggere fremtid.












