Connect with us

監視

AIは犯罪を予測する能力を向上させているか?

mm

サイエンスフィクションの本や映画は、警察が犯罪を予測する未来を想像してきた。人工知能(AI)がそれを可能にする以前からである。現在、それは単なる理論的な可能性ではなく、現実であり、数多くの都市がAIを利用した予測ポリシングを試みている。しかし、それはまだ一般的な慣行ではなく、立ち塞がるものは何なのか?

予測分析アプリケーション全般で、精度と信頼性は問題となってきた。ただし、技術は成熟し、製造やサプライチェーン管理などの業界で波紋を広げている。そこで、犯罪予測におけるより広範な展開の準備は整っているのか?

犯罪予測AIの現状

予測ポリシングはまだ一般的ではないが、近年大きな進展を見せている。これらのステップは、実際の犯罪予測AI、実験研究、開始予定の犯罪予測プロジェクトの3つの広いカテゴリに分けられる。

1. 実際の成果

いくつかの都市は、AIを利用した予測ポリシングから印象的な成果を得ている。ドバイ警察の刑事捜査総局は、犯罪予測ツールを導入した結果重犯罪率が25%減少したと述べている。軽犯罪の活動は7.1%減少した。

多くのAI犯罪予測ツールと同様に、このソリューションは過去の報告を分析し、それを現在の状況と比較することで機能する。以前の犯罪の傾向を強調することで、マシンラーニングモデルは、同様のイベントが発生する可能性のあるエリアや時間を特定できる。警察は事前に資源を動員して犯罪を阻止したり、犯罪につながる可能性のある事象に対処したりできる。

カリフォルニア州サンノゼは、別の種類のAIモデルから成功を収めている。市はまだ犯罪を予測していないが、AIを使用してポットホールや落書きを検出して対処している。担当者によると、地域を清掃することで、そこでの犯罪の可能性を低減できるため、このプロセスは依然として事件を減らす。

2. 有望な実験モデル

実際の予測ポリシングが成長するにつれて、同様のアプリケーションの初期テストも希望を持たせている。多くの管轄区域では、犯罪予測システムをフルに展開するには、相当な規制の障壁があり、技術の採用を遅らせている。実験段階の例は、その間にも進歩を遂げている。

2022年のシカゴ大学の研究では、1週間先の犯罪を90%の精度で予測できるモデルが作成された。より重要なのは、このシステムは古いシステムよりもバイアスに陥りやすさが低いということである。市を近隣や政治的境界に分割するのではなく、市を異なるかつ等しいタイルに分割して、新しい視点を提供するからである。

犯罪をマッピングするために、古い、バイアスに陥りやすいレコードではなく、都市のデジタルツインを構築することで、より信頼性の高い洞察が得られる可能性がある。警察はまだこのシステムを使用していないが、研究はこの分野の新しい技術が何ができるかを示している。

3. 予測ポリシングへの投資

将来を見て、数多くの地域が最近、AI犯罪予測の目標を発表した。これらのプロジェクトはまだ始まっていないが、その出現は、政府がその有効性に対する信頼を高めたことによる、この技術への移行の増加を示唆している。

2024年7月、アルゼンチンのセキュリティ省は、AI犯罪予測と対応の計画を発表した。決定によると、警察は歴史的な犯罪データを分析して将来の出来事を予測し、それに応じて予測される犯罪を防止するために必要な措置を講じる。リアルタイムの異常検出も言及されており、予測モデルと連携して機能する可能性がある。

最近、イギリスは、最も暴力的になる可能性のある人々を特定するための予測ツールの作成に取り組んでいる。どのように対応するかは不明であり、使用するデータについては矛盾する報告がある。法務省は、このプロジェクトは現段階では研究目的のみであると述べているが、今日の研究は明日の実際のプロジェクトにつながる可能性がある。

AI犯罪予測の進歩

これらの現在および将来の予測ポリシングアプリケーションは、この技術の最初の例から遠く離れている。ただし、肯定的な変化を示している。以前のバージョンは、同じレベルの精度と信頼性を達成できなかった。シカゴ大学のソリューションの90%の精度とドバイの重犯罪率25%の減少は、以前の試みとは遠く離れている。

2024年、フロリダ州パスコ郡の保安官事務所は、10.5万ドルの和解金を支払い、予測ポリシングプログラムを停止した。システムは、AIモデルによる予測に基づいて、犯罪を犯していない市民を繰り返し訪問し、さらには逮捕した。

同様に、シカゴは、数多くの苦情を受けて犯罪予測モデルを停止した。研究によると、システムは銃関連犯罪に大きな影響を与えなかったにもかかわらず、逮捕の可能性が高まった。より心配なのは、アルゴリズムが本質的に人種的に偏っていることが明らかになり、有色人種が逮捕される可能性が高くなっていたことである。

数多くの都市で使用されている別のソリューション、Geolitica(以前はPredPol)は、重犯罪を予測する際に0.6%の精度しか示さなかった。ある地域では、住居侵入の精度率は0.1%であった。

これらの失敗したプログラムと比較して、新しいAI犯罪予測ツールは驚くほど正確である。まだ、これらの高度なソリューションを使用する実際の警察の話はあまり聞かれないが、初期の結果は、昨日のAIと今日のAIの違いを鮮明に示している。

予測ポリシングの暗い面

多くの管轄区域がAI犯罪予測に投資する理由は明らかである。犯罪を起こす前にそれを阻止することは、公共の安全にとって大きな利益である。AIは、人間の仮定に反する傾向を検出できる。たとえば、全ての強盗のうち、半分以上が夜ではなく、昼に発生する。AIは、実際の傾向を見つけるために、人間の認識を超えて見ることができる。

同時に、予測ポリシングは重大なプライバシーと倫理的懸念を引き起こす。アメリカ人の52%が、AIについて懸念している理由がある。最も高度なモデルでも、妄想に陥る可能性があり、AIは偏ったデータで訓練された場合、人間の偏見を永続させ、ひどくすることがある。

歴史的な犯罪データは、最良の場合には不完全で、最悪の場合には本質的に人種差別的である可能性がある。逮捕記録は、実際の犯罪を反映するのではなく、より厳しく取り締まられている地域を示している可能性がある。したがって、データは、法執行における長い歴史を持つ人種的偏見を反映する可能性がある。

偏ったデータで訓練されたAIモデルは、警察が黒人居住区をより厳しく取り締まることや、有色人種に対してより警戒することにつながる可能性がある。シカゴとパスコ郡の事例はその例である。したがって、これらの偏見を認識せずにAIの予測に頼ることは、歴史的に過度に取り締まられ、不利な立場にある人種に対する不当な扱いを悪化させる可能性がある。

人種的不正義を除いて、市民に関する大量のデータを収集することはプライバシー上のリスクにつながる可能性がある。政府機関は、サイバー犯罪の第8位の標的であるため、予測ポリシングモデルの漏洩は非常に可能であり、損害も大きい。サイバー攻撃が成功しなくても、犯罪を犯す可能性があるとして市民を監視することは、過度な監視と適正手続きに関する疑問を引き起こす。

AI犯罪予測は改善されているが、懸念は残る

AI犯罪予測モデルは、今日では数年前のものよりもはるかに正確である。ただし、バイアス、有効性、正義に関する懸念は依然として存在する。政策立案者とAI企業は、これらの問題に対処して、この技術が実際により安全な未来を提供できるようにしなければならない。

Zac Amosは、人工知能に焦点を当てたテックライターです。彼はまた、 ReHackのフィーチャー編集者でもあり、そこでは彼の作品をより多く読むことができます。