Інтерв’ю
Венді Гілберт, Старший Віце-Президент з Продукту, Mark43 – Серія Інтерв’ю

Венді Гілберт, Старший Віце-Президент з Продукту в Mark43, має понад два десятиліття досвіду в галузі технологій громадської безпеки, з кар’єрою, що охоплює керівні ролі управління продуктом в організаціях, таких як CentralSquare Technologies, TriTech Software Systems та VisionAIR. Поступово просунувшись через ролі, орієнтовані на системи управління записами (RMS) та платформи громадської безпеки, вона тепер очолює стратегію продукту в Mark43, де вона відповідає за формування еволюції хмарних рішень, які використовуються правоохоронними органами. Її каденція відображає глибоку спеціалізацію в модернізації програмного забезпечення критичної місії для перших респондентів, з акцентом на зручності використання, відповідності вимогам та оперативній ефективності в умовах високих ставок.
Mark43 є провідним постачальником хмарного програмного забезпечення громадської безпеки, що пропонує інтегровану платформу, яка включає управління записами (RMS), комп’ютерну систему диспетчеризації (CAD), аналіз та мобільні інструменти, розроблені для правоохоронних органів та служби екстреної допомоги. Будучи побудованим на архітектурі SaaS, платформа дозволяє агентствам оптимізувати написання звітів, керувати справами та отримувати доступ до даних в режимі реального часу з будь-якого місця, суттєво скорочуючи адміністративне навантаження та покращуючи час реакції. Її системи розроблені для заміни застарілої інфраструктури масштабними, безпечними та мобільними рішеннями, що допомагають сотням агентств покращити ситуаційну обізнаність, співробітництво та загальні результати громадської безпеки.
Ви провели понад два десятиліття, створюючи продукти в компаніях, таких як VisionAIR, TriTech, CentralSquare, і тепер Mark43. Як змінився ваш погляд на технології громадської безпеки, і що відчувається фундаментально інакше в цій поточній хвилі прийняття штучного інтелекту?
Технології змінилися багато за останні два десятиліття. Більшу частину цього часу технології були розроблені для підтримки місії після факту. Системи реєстрували, що відбулося, але вони не активно допомагали формувати, що повинно статися далі. Це те, що фундаментально інше зараз.
Вперше ми не просто додаємо технології до потоків громадської безпеки. Ми переосмислюємо ці системи як штучний інтелект з самого початку, що повністю змінює роль технологій. Ми переходимо від систем реєстрації до систем дії. Замість того, щоб просто документувати інциденти, ми допомагаємо агентствам інтерпретувати, пріоритизувати та діяти в режимі реального часу. Це перший раз у моєй кар’єрі, коли я бачу, що технології дійсно працюють з такою швидкістю, яку заслуговує громадська безпека, тобто доставляти продукти, які можуть трансформувати, як агентства функціонують щодня, і в кінцевому підсумку забезпечувати кращі результати громадської безпеки.
Дослідження Mark43 показує сильну підтримку штучного інтелекту серед правоохоронних органів, але також чітке очікування щодо людського нагляду. Що являє собою справжнє людське втручання в щоденній діяльності?
У кожному продуктивному рішенні принцип чіткий. Штучний інтелект підтримує. Люди приймають рішення.
Штучний інтелект може структурувати звіт, висвітити зв’язки між записами або виділити ключову інформацію в дзвінку. Але офіцер, диспетчер або слідчий завжди є тим, хто застосовує судження та приймає рішення. На практиці це означає, що штучний інтелект прискорює шлях до розуміння, зберігаючи відповідальність за людиною. Він створює чернетку, пропонує та з’єднує, але не приймає рішення.
Це особливо важливо в потоках CAD і RMS, де рішення мають реальні наслідки. Роль штучного інтелекту полягає в тому, щоб зменшити тертя та когнітивне навантаження, щоб професіонали громадської безпеки могли зосередитися на всьому, що вимагає їхньої експертизи.
Одна з повторюваних проблем полягає в тому, що звітність та рішення, підтримувані штучним інтелектом, будуть витримувати суд. Як ви проектуєте системи, які не тільки оперативно корисні, але й юридично обґрунтовані?
Відповідь на це питання полягає в прозорості. Кожен вивід, згенерований штучним інтелектом, повинен бути безпосередньо пов’язаний з джерельними даними. Користувачі повинні мати можливість відстежити точно, звідки взялася інформація, як вона була сгенерована та як вона була використана. Якщо ця ланцюжка не чітка, система не витримає перевірки. Система також повинна знати свої обмеження. Коли дані неповні, ми проектуємо штучний інтелект так, щоб він виділяв цей пробіл, а не намагався самостійно його вирішити. Він не робить припущень.
Іншим критичним аспектом є узгодження з тим, як агентства фактично працюють. Штучний інтелект не може диктувати політику або робочий процес. Він повинен відповідати юридичним вимогам, стандартам звітності та оперативним реаліям кожної агенції.
Ми будемо будувати конфігурованість безпосередньо в систему. Валідатори відповідності та дозволи штучного інтелекту можуть бути встановлені на рівні звітів та кодів правопорушень, щоб агентства могли вибирати, де підтримка штучного інтелекту є доречною, а де ні. Наприклад, агентство може увімкнути підтримку штучного інтелекту для низькорівневих інцидентів, тоді як обмежувати її в справах, які мають вищу стандарт доказів.
Ми також підтримуємо повну прозорість у використанні штучного інтелекту. Кожен випадок участі штучного інтелекту реєструється, а повна історія чернеток зберігається в звітах. Це створює чіткий, переглядний запис, який підтримує як внутрішню відповідальність, так і зовнішню юридичну перевірку.
Ці системи повинні витримувати перевірку з боку керівників, юристів та громадськості, щоб бути оперативно корисними та ефективними.
З вашого досвіду, де штучний інтелект вже доставляє вимірювану цінність у громадській безпеці сьогодні, і де він ще не відповідає очікуванням?
Найбільш негайна цінність полягає в основних потоках, над якими я працював протягом усієї своєї кар’єри.
Написання звітів є важливим, але це також постійний витік часу. Штучний інтелект змінює це, перетворюючи документацію в щось, що відбувається поряд з роботою, а не після неї. Це суттєва зміна для офіцерів та агентств, які керують обмеженнями штату.
Але більша зміна відбувається в тому, як агентства переходять від інформації до дії. Штучний інтелект може виділити те, що важливо, в режимі реального часу, а не лише після факту. Там, де я бачу пробіл, не в технології. Це в тому, як організації оперціоналізують його. Штучний інтелект вимагає чіткої політики, управління та навчання, щоб бути ефективним. Агентства, які розглядають його як трансформацію робочого процесу, бачать результати. Якщо агентства бачать його лише як функцію, воно не розблокує ту саму можливість.
Упередженість залишається однією з найбільш критичних проблем штучного інтелекту, особливо в правоохоронних органах, де історичні дані можуть відображати системні проблеми. Як Mark43 підходить до мінімізації упередженості, зберігаючи точність та довіру до своїх систем?
Упередженість є справжньою проблемою, особливо в системах, які залежать від історичних даних.
З точки зору продукту відповідь полягає не в тому, щоб прикрити, як система працює. Це зробити її більш прозорою та відповідальною. Ми зосереджуємося на покращенні якості даних на етапі введення, роблячи виводи послідовними та забезпечуючи, що завжди є людський огляд. У системах CAD та RMS краще дані ведуть до кращих рішень. Штучний інтелект повинен підтримувати це, а не підірвати.
Мета полягає в тому, щоб основувати рішення на більш повній та послідовній інформації, забезпечуючи, що кожен вивід можна оглянути, перевірити та покращити з часом.
Прозорість та аудитованість часто обговорюються як вимоги для відповідального штучного інтелекту. Що являє собою повна аудитованість на практиці для агентств, які використовують інструменти, підтримувані штучним інтелектом?
У системах громадської безпеки аудитованість завжди була важливою.
Для агентств, які використовують штучний інтелект, повинна бути повна видимість того, що було сгенеровано, яких даних було використано, та як воно було використано. Ніщо не повинно існувати без чіткої зв’язку з базовим записом. Кожен вивід повинен бути пояснюваним. Кожен крок повинен бути переглядним. Це те, як ви будуєте системи, які можуть бути довіреними, не лише оперативно, але й публічно.
Багато агентств громадської безпеки все ще залежать від застарілих систем та фрагментованих даних. Наскільки важливим є модернізація інфраструктури до того, як штучний інтелект зможе дійсно доставляти значимі результати?
Штучний інтелект є лише таким потужним, як і фундамент, на якому він спочиває. Я працював з застарілими середовищами CAD та RMS протягом більшої частини своєї кар’єри, і я бачив особисто, наскільки фрагментовані системи обмежують те, що можуть зробити агентства. Слідчі, які використовують ці системи, часто повинні запитувати кілька інструментів, лише щоб зрозуміти одну справу. Це неустійне.
Штучний інтелект залежить від підключених та доступних даних. Якщо системи ізольовані або вимагають ручних обхідних шляхів, штучний інтелект не може доставляти значимі результати. Він стає ще одним шаром складності замість сили множення. Сучасна, хмарна інфраструктура розблоковує можливість штучного інтелекту по всій підключеній платформі.
Є зростаючий інтерес до систем штучного інтелекту, які можуть діяти, а не лише надавати інсайти. Чи бачите ви майбутнє, де штучний інтелект активно бере участь у потоках, таких як управління справами або диспетчеризація, і де повинні бути встановлені межі?
Штучний інтелект буде продовжувати рухатися глибше в потоки, особливо в таких областях, як обробка дзвінків, тріаж та управління справами. Він буде все частіше координувати потоки, пріоритизувати дії та виділяти наступні кращі кроки в режимі реального часу. Однак у громадській безпеці будуть потрібні чіткі межі. Штучний інтелект може рекомендувати, пріоритизувати та виділити ключову інформацію. Він може зменшити час, необхідний для переходу від інформації до дії. Але рішення, які впливають на життя людей, повинні залишатися з підготовленими професіоналами. Наша мета – ясність та впевненість у правильний момент.
Довіра громадськості є суттєвою в поліції, особливо коли вводяться нові технології. Які заходи є найбільш ефективними для забезпечення того, що штучний інтелект посилює довіру, а не підірває її?
Ми визнаємо, що довіра є тим, чого агентства громадської безпеки працюють, щоб заслужити кожен день. Технології повинні відповідати цьому стандарту. Для штучного інтелекту це починається з видимості та прозорості. Користувачі повинні розуміти, що система робить і чому. Це також вимагає послідовності, управління та можливості огляду результатів з часом. Ми будемо будувати зворотній зв’язок безпосередньо з поля, оскільки довіра встановлюється через реальне використання та безперервну перевірку.
Оглядаючи найближчі роки, як ви очікуєте, що роль штучного інтелекту в громадській безпеці буде еволюціонувати від адміністративної підтримки до прийняття рішень в режимі реального часу?
Штучний інтелект стане вбудованим у весь життєвий цикл громадської безпеки, від моменту, коли надходить дзвінок, до того, як справа буде вирішена. Найбільша зміна полягатиме в тому, як швидко агентства можуть перейти від інформації до дії. Це завжди була проблема в системах CAD та RMS. Ми рухаємося до моделі, в якій система розуміє, як ваша агенція працює, передбачає перші кроки в робочому процесі та допомагає виконувати їх, залишаючись людьми в центрі.
Роль штучного інтелекту полягає в тому, щоб зменшити адміністративне навантаження, уніфікувати фрагментовані системи, виділити правильну інформацію в правильний час та підтримати кращі рішення під тиском. Штучний інтелект не може замінити досвід. Він допомагає забезпечити, що люди на передовій лінії краще інформовані, підготовлені та підтримані в кожному рішенні, яке вони приймають.
Дякуємо за велике інтерв’ю. Читачам, які бажають дізнатися більше, слід відвідати Mark43.












