Liderzy myśli
Jak ogrody otoczone murem w służbach bezpieczeństwa publicznego ujawniają kryzys prywatności danych w Ameryce

Rozszerzający się obszar sztucznej inteligencji i wymagane przez nią dane
Sztuczna inteligencja rozwija się szybko zmiana sposobu, w jaki żyjemy, pracuj i rządzisz. W ochronie zdrowia publicznego i usługach publicznych narzędzia AI obiecują większą wydajność i szybsze podejmowanie decyzji. Jednak pod powierzchnią tej transformacji istnieje rosnąca nierównowaga: nasza zdolność do gromadzenia danych wyprzedziła naszą zdolność do odpowiedzialnego nimi zarządzania.
To wykracza poza zwykłe wyzwanie technologiczne i staje się kryzysem prywatności. Od predykcyjnego oprogramowania policyjnego po narzędzia do nadzoru i automatyczne czytniki tablic rejestracyjnych, dane dotyczące poszczególnych osób są gromadzone, analizowane i wykorzystywane z niespotykaną dotąd szybkością. Mimo to większość obywateli nie ma pojęcia, kto jest właścicielem ich danych, jak są wykorzystywane ani czy są chronione.
Widziałem to z bliska. Jako emerytowany agent specjalny FBI ds. cyberbezpieczeństwa, a obecnie dyrektor generalny wiodącej firmy technologicznej ds. bezpieczeństwa publicznego, pracowałem zarówno w sektorze rządowym, jak i prywatnym. Jedno jest jasne: jeśli nie naprawimy sposobu, w jaki obecnie obchodzimy się z prywatnością danych, sztuczna inteligencja tylko pogorszy istniejące problemy. A jeden z największych problemów? Ogrody otoczone murem.
Czym są ogrody otoczone murem i dlaczego stanowią zagrożenie dla bezpieczeństwa publicznego?
Ogrody otoczone murem są zamkniętymi systemami, w których jedna firma kontroluje dostęp, przepływ i wykorzystanie danych. Są powszechne w reklamie i mediach społecznościowych (pomyśl o platformach Facebook, Google i Amazon), ale coraz częściej pojawiają się również w bezpieczeństwie publicznym.
Firmy zajmujące się bezpieczeństwem publicznym odgrywają kluczową rolę w nowoczesnej infrastrukturze policyjnej, jednak zastrzeżony charakter niektórych z tych systemów oznacza, że nie zawsze są one zaprojektowane z myślą o płynnej interakcji z narzędziami innych dostawców.
Te ogrody otoczone murem mogą oferować potężne funkcje, takie jak nagrania z kamer na ciele w chmurze lub automatyczne czytniki tablic rejestracyjnych, ale tworzą również monopol na sposób przechowywania, uzyskiwania dostępu i analizowania danych. Organy ścigania często znajdują się w pułapce długoterminowych umów z zastrzeżonymi systemami, które nie komunikują się ze sobą. Rezultat? Fragmentacja, odizolowane spostrzeżenia i niezdolność do skutecznej reakcji w społeczności, gdy ma to największe znaczenie.
Społeczeństwo nie wie i to jest problem
Większość ludzi nie zdaje sobie sprawy, jak wiele ich danych osobowych trafia do tych systemów. W wielu miastach można wywnioskować i śledzić swoją lokalizację, pojazd, aktywność online, a nawet stan emocjonalny za pomocą mozaiki narzędzi opartych na sztucznej inteligencji. Narzędzia te mogą być reklamowane jako ulepszenia do walki z przestępczością, ale w przypadku braku przejrzystości i regulacji mogą być łatwo nadużywane.
I nie chodzi tylko o to, że dane istnieją, ale że istnieją w ekosystemach otoczonych murem, które są kontrolowane przez prywatne firmy z minimalnym nadzorem. Na przykład, narzędzia takie jak czytniki tablic rejestracyjnych są teraz dostępne w tysiącach społeczności w całych Stanach Zjednoczonych, gromadząc dane i przesyłając je do swojej zastrzeżonej sieci. Wydziały policji często nie są nawet właścicielami sprzętu, tylko go wynajmują, co oznacza, że przepływ danych, analiza i alerty są dyktowane przez dostawcę, a nie przez publiczny konsensus.
Dlaczego to powinno wzbudzić podejrzenia
AI potrzebuje danych, aby działać. Ale gdy dane są zamknięte w ogrodach otoczonych murem, nie można ich krzyżowo odsyłać, weryfikować ani kwestionować. Oznacza to, że decyzje o tym, kto zostanie zatrzymany, gdzie trafią zasoby lub kto zostanie oznaczony jako zagrożenie, są podejmowane na podstawie częściowych, czasami niedokładnych informacji.
Ryzyko? Złe decyzje, potencjalne naruszenia praw obywatelskich i rosnąca przepaść między departamentami policji a społecznościami, którym służą. Przejrzystość zanika. Zaufanie wyparowuje. A innowacja jest tłumiona, ponieważ nowe narzędzia nie mogą wejść na rynek, jeśli nie są zgodne z ograniczeniami tych zamkniętych systemów.
W scenariuszu, w którym system rozpoznawania tablic rejestracyjnych błędnie oznacza skradziony pojazd na podstawie nieaktualnych lub współdzielonych danych, bez możliwości zweryfikowania tych informacji na różnych platformach lub przeprowadzenia audytu sposobu podjęcia tej decyzji, funkcjonariusze mogą działać na podstawie fałszywych wyników pozytywnych. Widzieliśmy już incydenty, w których wadliwa technologia doprowadziła do niesłusznych aresztowań lub eskalujących konfrontacji. Te wyniki nie są hipotetyczne, dzieją się w społecznościach w całym kraju.
Czego naprawdę potrzebuje egzekwowanie prawa
Zamiast blokować dane, potrzebujemy otwartych ekosystemów, które obsługują bezpieczne, ujednolicone i interoperacyjne udostępnianie danych. Nie oznacza to poświęcenia prywatności. Wręcz przeciwnie, jest to jedyny sposób, aby zapewnić egzekwowanie ochrony prywatności.
Niektóre platformy pracują nad tym. Na przykład, PierwszeDwa oferuje narzędzia do rozpoznawania sytuacji w czasie rzeczywistym, które kładą nacisk na odpowiedzialną integrację publicznie dostępnych danych. Inne, takie jak ForceMetrics, koncentrują się na łączeniu różnych zestawów danych, takich jak połączenia 911, zapisy dotyczące zdrowia behawioralnego i historia wcześniejszych incydentów, aby zapewnić funkcjonariuszom lepszy kontekst w terenie. Ale co najważniejsze, te systemy są tworzone z myślą o potrzebach bezpieczeństwa publicznego i szacunku społeczności jako o priorytecie, a nie jako czymś drugorzędnym.
Budowa infrastruktury stawiającej prywatność na pierwszym miejscu
Podejście stawiające prywatność na pierwszym miejscu oznacza więcej niż redagowanie poufnych informacji. Oznacza to ograniczenie dostępu do danych, chyba że istnieje wyraźna, zgodna z prawem potrzeba. Oznacza to dokumentowanie sposobu podejmowania decyzji i umożliwianie audytów stron trzecich. Oznacza to współpracę z interesariuszami społeczności i grupami praw obywatelskich w celu kształtowania polityki i wdrażania. Te kroki skutkują wzmocnieniem bezpieczeństwa i ogólną legitymacją.
Mimo postępu technologicznego wciąż funkcjonujemy w próżni prawnej. W USA brakuje kompleksowych federalnych przepisów dotyczących prywatności danych, pozostawiając agencjom i dostawcom tworzenie zasad w miarę ich powstawania. Europa ma RODO, który oferuje plan działania dla opartego na zgodzie wykorzystania danych i rozliczalności. Stany Zjednoczone, przeciwnie, mają rozdrobnioną mozaikę polityk na poziomie stanowym, które nie uwzględniają odpowiednio złożoności AI w systemach publicznych.
To musi się zmienić. Potrzebujemy jasnych, egzekwowalnych standardów dotyczących sposobu gromadzenia, przechowywania i udostępniania danych przez organy ścigania i organizacje bezpieczeństwa publicznego. I musimy włączyć do rozmowy interesariuszy społeczności. Zgoda, przejrzystość i rozliczalność muszą być wbudowane w każdy poziom systemu, od zamówień publicznych po wdrożenie i codzienne użytkowanie.
Podsumowanie: bez interoperacyjności prywatność cierpi
W bezpieczeństwie publicznym stawką jest życie. Pomysł, że jeden dostawca mógłby kontrolować dostęp do danych o znaczeniu krytycznym dla misji i ograniczać sposób i czas ich wykorzystania, jest nie tylko nieefektywny. Jest nieetyczny.
Musimy wyjść poza mit, że innowacja i prywatność są w konflikcie. Odpowiedzialna sztuczna inteligencja oznacza bardziej sprawiedliwe, skuteczne i rozliczalne systemy. Oznacza to odrzucenie uzależnienia od dostawcy, priorytetowe traktowanie interoperacyjności i żądanie otwartych standardów. Ponieważ w demokracji żadna firma nie powinna kontrolować danych, które decydują, kto otrzyma pomoc, kogo zatrzymają lub kogo zostawią w tyle.