Líderes del pensamiento
Cómo los jardines amurallados en la seguridad pública están exponiendo la crisis de privacidad de datos en Estados Unidos

La frontera en expansión de la IA y los datos que demanda
La inteligencia artificial se cambiando la forma en que vivimosTrabajar y gobernar. En la salud pública y los servicios públicos, las herramientas de IA prometen mayor eficiencia y una toma de decisiones más rápida. Pero bajo la superficie de esta transformación se esconde un desequilibrio creciente: nuestra capacidad para recopilar datos ha superado nuestra capacidad para gestionarlos responsablemente.
Esto va más allá de un simple desafío tecnológico y se convierte en una crisis de privacidad. Desde software de vigilancia predictiva hasta herramientas de vigilancia y lectores automáticos de matrículas, Se están recopilando, analizando y procesando datos sobre individuos a una velocidad sin precedentes. Y, sin embargo, la mayoría de los ciudadanos no tienen idea de quién es el propietario de sus datos, cómo se utilizan o si están protegidos.
Lo he visto de cerca. Como agente especial cibernético retirado del FBI y actual director ejecutivo de una empresa líder en tecnología de seguridad pública, he trabajado tanto en el sector público como en el privado. Una cosa está clara: si no mejoramos la forma en que gestionamos la privacidad de los datos ahora, la IA solo agravará los problemas existentes. ¿Y uno de los mayores problemas? Los jardines amurallados.
¿Qué son los jardines amurallados y por qué son peligrosos para la seguridad pública?
jardines amurallados Son sistemas cerrados donde una empresa controla el acceso, el flujo y el uso de los datos. Son comunes en la publicidad y las redes sociales (como Facebook, Google y Amazon), pero cada vez más se utilizan también en la seguridad pública.
Las empresas de seguridad pública desempeñan un papel clave en la infraestructura policial moderna, sin embargo, la naturaleza propietaria de algunos de estos sistemas significa que no siempre están diseñados para interactuar de manera fluida con herramientas de otros proveedores.
Estos jardines amurallados pueden ofrecer potentes funciones, como grabaciones de cámaras corporales en la nube o lectores automáticos de matrículas, pero también crean un monopolio sobre cómo se almacenan, acceden y analizan los datos. Las fuerzas del orden a menudo se ven obligadas a firmar contratos a largo plazo con sistemas propietarios que no se comunican entre sí. ¿El resultado? Fragmentación, información aislada e incapacidad para responder eficazmente en la comunidad cuando más importa.
El público no lo sabe y eso es un problema
La mayoría de las personas no se dan cuenta de la cantidad de información personal que fluye a estos sistemas. En muchas ciudades, la ubicación, el vehículo, la actividad en línea e incluso el estado emocional pueden inferirse y rastrearse mediante una combinación de herramientas basadas en IA. Estas herramientas pueden promocionarse como mejoras para combatir la delincuencia, pero ante la falta de transparencia y regulación, pueden ser fácilmente mal utilizadas.
Y no se trata solo de que los datos existan, sino de que se encuentran en ecosistemas amurallados, controlados por empresas privadas con mínima supervisión. Por ejemplo, Herramientas como los lectores de matrículas ya están presentes en miles de comunidades de todo Estados Unidos.Recopilan datos y los introducen en su red privada. Los departamentos de policía a menudo ni siquiera poseen el hardware, sino que lo alquilan. Esto significa que la gestión de datos, el análisis y las alertas dependen de un proveedor y no del consenso público.
Por qué esto debería ser motivo de preocupación
La IA necesita datos para funcionar. Pero cuando estos se encuentran encerrados en jardines amurallados, no se pueden cruzar, validar ni cuestionar. Esto significa que las decisiones sobre a quién se detiene, adónde se destinan los recursos o a quién se señala como una amenaza se toman con base en información parcial y, a veces, inexacta.
¿El riesgo? Malas decisiones, posibles violaciones de las libertades civiles y una creciente brecha entre los departamentos de policía y las comunidades a las que sirven. La transparencia se erosiona. La confianza se evapora. Y la innovación se frena, porque las nuevas herramientas no pueden entrar al mercado a menos que se ajusten a las limitaciones de estos sistemas amurallados.
En un escenario donde un sistema de reconocimiento de matrículas marca incorrectamente un vehículo robado basándose en datos desactualizados o compartidos, sin la capacidad de verificar esa información en diferentes plataformas ni auditar cómo se tomó esa decisión, los agentes podrían actuar sobre falsos positivos. Ya hemos visto incidentes donde... La tecnología defectuosa provocó arrestos injustos o enfrentamientos intensificados. Estos resultados no son hipotéticos; están ocurriendo en comunidades de todo el país.
Lo que realmente necesitan las fuerzas del orden
En lugar de bloquear los datos, Necesitamos ecosistemas abiertos que respalden el intercambio de datos seguro, estandarizado e interoperable.Eso no significa sacrificar la privacidad. Al contrario, es la única manera de garantizar que se respeten las protecciones de la privacidad.
Algunas plataformas están trabajando en ello. Por ejemplo, Primeros dos Ofrece herramientas de conocimiento de la situación en tiempo real que priorizan la integración responsable de datos públicos. Otros, como ForceMetrics, se centran en combinar conjuntos de datos dispares, como llamadas al 911, registros de salud conductual e historial de incidentes previos, para brindar a los agentes un mejor contexto sobre el terreno. Pero, fundamentalmente, estos sistemas se construyen priorizando las necesidades de seguridad pública y el respeto a la comunidad, no como una idea secundaria.
Construyendo una infraestructura que priorice la privacidad
Un enfoque que prioriza la privacidad implica más que simplemente ocultar información sensible. Implica limitar el acceso a los datos a menos que exista una necesidad legal clara. Implica documentar cómo se toman las decisiones y permitir auditorías externas. Implica colaborar con las partes interesadas de la comunidad y los grupos de derechos civiles para definir las políticas y su implementación. Estas medidas se traducen en una mayor seguridad y una legitimidad general.
A pesar de los avances tecnológicos, todavía vivimos en un vacío legal. Estados Unidos carece de una legislación federal integral sobre privacidad de datos, dejando que las agencias y los proveedores creen las reglas sobre la marcha. Europa tiene GDPR, que ofrece una hoja de ruta para el uso de datos basado en el consentimiento y la rendición de cuentas. Estados Unidos, en cambio, cuenta con un mosaico fragmentado de políticas estatales que no abordan adecuadamente las complejidades de la IA en los sistemas públicos.
Eso debe cambiar. Necesitamos normas claras y aplicables sobre cómo las fuerzas del orden y las organizaciones de seguridad pública recopilan, almacenan y comparten datos. Y debemos incluir a las partes interesadas de la comunidad en el diálogo. El consentimiento, la transparencia y la rendición de cuentas deben integrarse en todos los niveles del sistema, desde la adquisición hasta la implementación y el uso diario.
En resumen: sin interoperabilidad, la privacidad se ve afectada
En seguridad pública, hay vidas en juego. La idea de que un solo proveedor pueda controlar el acceso a datos cruciales y restringir cómo y cuándo se utilizan no solo es ineficiente, sino también poco ética.
Necesitamos superar el mito de que la innovación y la privacidad están reñidas. Una IA responsable implica sistemas más equitativos, eficaces y responsables. Implica rechazar la dependencia de un proveedor, priorizar la interoperabilidad y exigir estándares abiertos. Porque en una democracia, ninguna empresa debería controlar los datos que deciden quién recibe ayuda, quién se detiene o quién se queda atrás.