Connect with us

Fortreum Acquires Kovr.AI to Redefine AI-Driven Cybersecurity Compliance

Akwizycje

Fortreum Acquires Kovr.AI to Redefine AI-Driven Cybersecurity Compliance

mm

Fortreum nabył Kovr.AI, łącząc firmę oceny cyberbezpieczeństwa, znanej z audytów prowadzonych przez praktyków, z platformą stworzoną specjalnie do obsługi przepływów pracy zgodności opartych na sztucznej inteligencji w środowiskach regulowanych. Transakcja odzwierciedla szerszy trend w podejściu organizacji do zgodności, zwłaszcza gdy nakładające się na siebie ramy i rosnąca kontrola regulacyjna sprawiają, że tradycyjne procesy stają się trudniejsze do skalowania.

Organizacje działające w ramach standardów takich jak FedRAMP, CMMC 2.0 i NIST często napotykają na powtarzalne wysiłki, fragmentaryzowanie narzędzi i długie terminy. W rezultacie rośnie zainteresowanie systemami, które mogą ujednolicić zarządzanie dowodami, zautomatyzować dokumentację i nadal generować dane wyjściowe, które wytrzymują niezależne audity.

Zjednaczony Cykl Życia Zgodności

Połączona oferta jest zaprojektowana tak, aby połączyć etapy procesu zgodności, które są zwykle obsługiwane oddzielnie. Przygotowanie, ocena i ciągłe monitorowanie są często traktowane jako odrębne przepływy pracy, co może prowadzić do nieścisłości między tym, co jest przygotowane, a tym, co jest ostatecznie zwalidowane.

Platforma Kovr adresuje ten problem, strukturyzując pracę zgodności wokół ponownie wykorzystywanych dowodów i mapowań kontroli. Po zdefiniowaniu kontroli można je wyalignować w ramach wielu ram, redukując potrzebę odtwarzania podobnej dokumentacji dla każdego standardu. Pozwala to organizacjom na postęp w różnych wymogach zgodności równolegle, a nie sekwencyjnie.

Rola Fortreum pozostaje skupiona na niezależnej walidacji. Jako akredytowany oceniający, firma ocenia dane wyjściowe wygenerowane podczas przygotowania i określa, czy spełniają one wymagania odpowiednich ram.

Wewnętrzna Technologia Kovr.AI

Kovr.AI został opracowany jako platforma zgodności natywnie oparta na sztucznej inteligencji, a nie jako rozszerzenie legacy’owych narzędzi do zarządzania. Jego system integruje się z środowiskami chmurowymi i infrastrukturą bezpieczeństwa, aby ciągle zbierać i organizować dane zgodności.

Platforma koncentruje się na zautomatyzowaniu kilku obszarów, które tradycyjnie są ręczne:

  • Mapowanie kontroli w ramach wielu ram regulacyjnych
  • Generowanie dokumentacji zgodności, takiej jak plany bezpieczeństwa systemu
  • Zbieranie dowodów z usług chmurowych i narzędzi bezpieczeństwa
  • Ciągłe monitorowanie postawy zgodności

Przenosząc te procesy do ciągłego, opartego na danych systemu, platforma redukuje zależność od statycznych szablonów i okresowych aktualizacji ręcznych.

Agent Artemis i Ewolucja Interfejsów Zgodności

W centrum platformy znajduje się Agent Artemis, system sztucznej inteligencji agentynej zaprojektowany do zapewnienia jednego interfejsu do interakcji z danymi zgodności. Zamiast nawigowania w oddzielnych narzędziach do dokumentacji, infrastruktury i śledzenia dowodów, użytkownicy mogą uzyskać skonsolidowany widok swojego środowiska zgodności.

Ten podejście odzwierciedla szerszy trend w kierunku bardziej interaktywnych systemów, w których użytkownicy mogą wyszukiwać i analizować dane zgodności dynamicznie, zamiast polegać na predefiniowanych raportach. Platforma działa w kontrolowanym środowisku zaprojektowanym do spełnienia federalnych wymagań bezpieczeństwa, w tym ograniczeń dotyczących przechowywania danych.

Aby rozwiązać obawy dotyczące danych wyjściowych wygenerowanych przez sztuczną inteligencję, system obejmuje mechanizmy zarządzania, które wymagają walidacji przez człowieka przed ostatecznym sfinalizowaniem jakichkolwiek wyników.

Model Praktyczny Fortreum

Model oceny Fortreum pozostaje oparty na ludzkiej ekspertyzie. Wyniki są przeglądane i walidowane przez praktyków, którzy są odpowiedzialni za ostateczną decyzję dotyczącą zgodności.

Ta różnica jest istotna w regulowanych branżach, gdzie wiarygodność oceny zależy nie tylko od danych, ale także od oceny, która za nimi stoi. Chociaż automatyzacja może usprawnić przygotowanie, niezależna walidacja nadal odgrywa centralną rolę w ocenie wyników zgodności.

Wdrożenie w Środowiskach o Wysokim Poziomie Bezpieczeństwa

Kovr.AI został już wdrożony w środowiskach o wysokich wymaganiach bezpieczeństwa, w tym w agencjach federalnych i organizacjach związanych z obroną. Jego autoryzacja FedRAMP Moderate wskazuje, że platforma spełnia podstawowe standardy bezpieczeństwa i zgodności wymagane do użytku w systemach rządowych.

Dla organizacji działających w tych sektorach dostęp do platformy, która jest już zgodna z federalnymi wymaganiami, może skrócić czas potrzebny do osiągnięcia gotowości zgodności.

Przejęcie odzwierciedla trwający przełom w zgodności cyberbezpieczeństwa. Statyczne, oparte na checklistach procesy są stopniowo zastępowane przez systemy, które podkreślają ciągłe monitorowanie, zintegrowane dane i automatyzację.

Jednocześnie potrzeba niezależnej walidacji pozostaje niezmieniona. W rezultacie połączenie przygotowania opartego na sztucznej inteligencji i oceny praktycznej staje się coraz bardziej powszechnym modelem dla organizacji zarządzających złożonymi zobowiązaniami regulacyjnymi.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.