Connect with us

Liderzy opinii

O sztucznej inteligencji, cierpliwość jest cnotą

mm

W ciągu niemal dwóch lat od uruchomienia ChatGPT, generatywna sztuczna inteligencja przeszła przez cały cykl hossy technologicznej, od wysokich, zmieniających społeczeństwo oczekiwań do zasilania niedawnego korekty rynku akcji. Ale w branży cyberbezpieczeństwa konkretnie, entuzjazm wokół Generative AI (genAI) jest nadal uzasadniony; po prostu może to potrwać dłużej niż inwestorzy i analitycy przewidywali, aby zmienić sektor w całości.

Najwyraźniejszym, najnowszym znakiem zmiany hossy była Konferencja Black Hat USA na początku sierpnia, na której generatywna sztuczna inteligencja odegrała bardzo małą rolę w uruchomieniach produktów, demonstracjach i tworzeniu buzzu. W porównaniu z konferencją RSA zaledwie cztery miesiące wcześniej, z udziałem tych samych dostawców, focus Black Hat na AI był znikomy, co mogłoby rozsądnie skłonić obserwatorów do przekonania, że branża przechodzi dalej lub że AI stała się towarem. Ale to nie jest do końca prawdą.

Oto, co mam na myśli. Przekształcająca korzyść z zastosowania generatywnej sztucznej inteligencji w branży cyberbezpieczeństwa nie przyjdzie prawdopodobnie z ogólnych czatbotów lub szybkiego nakładania AI na modele przetwarzania danych. Są to bloki budowlane do bardziej zaawansowanych i wydajnych przypadków użycia, ale obecnie nie są one specjalizowane dla branży bezpieczeństwa i w związku z tym nie napędzają nowej fali optymalnych wyników bezpieczeństwa dla klientów. Raczej prawdziwa transformacja, którą AI zapewni dla branży bezpieczeństwa, nastąpi, gdy modele AI zostaną dostosowane i dostrojone do przypadków użycia związanych z bezpieczeństwem.

Bieżące ogólne przypadki użycia AI w bezpieczeństwie w dużej mierze wykorzystują prompt engineering i Retrieval-Augmented Generation, co jest ramą AI, która w zasadzie umożliwia dużym modelom języka (LLM) dostęp do dodatkowych zasobów danych poza ich danymi szkoleniowymi, łącząc najlepsze części generatywnej AI i pobierania z bazy danych. Użyteczność tych różni się znacznie w zależności od przypadku użycia i jak dobrze istniejące przetwarzanie danych dostawcy wspiera przypadki użycia; nie są one “magiczne”. To jest prawdą również dla innych aplikacji, które wymagają własnych danych i specjalistycznej wiedzy, której nie ma w Internecie, takich jak diagnoza medyczna i praca prawnicza. Wydaje się prawdopodobne, że firmy dostosują potoki przetwarzania danych i systemy dostępu do danych, aby zoptymalizować przypadki użycia generatywnej AI. Ponadto, firmy generatywnej AI zachęcają do rozwoju specjalnie dostrojonych modeli, chociaż pozostaje to zobaczyć, jak dobrze to będzie działać w przypadkach, w których jakość i szczegóły są niezbędne.

Istnieje kilka powodów, dla których ta specjalizacja zajmie trochę czasu, aby wystąpić w branży bezpieczeństwa. Jednym z głównych powodów jest to, że dostosowanie tych modeli wymaga wielu ludzi w pętli szkoleniowej, którzy są ekspertami w dziedzinie bezpieczeństwa i AI, dwóch branż, które mają trudności z zatrudnieniem wystarczającej liczby talentów. Branża bezpieczeństwa ma około czterech milionów profesjonalistów na całym świecie, według Światowego Forum Ekonomicznego, a Reuters szacuje, że będzie 50% luka zatrudnienia w przypadku stanowisk związanych z AI w najbliższej przyszłości.

Bez obfitości ekspertów, precyzyjna praca potrzebna do dostosowania modeli AI do pracy w kontekście bezpieczeństwa będzie spowolniona. Koszt wykonania niezbędnej nauki o danych, aby przeszkolić te modele, również ogranicza liczbę organizacji, które mają zasoby, aby prowadzić badania nad dostosowaniem modeli AI. Potrzeba milionów dolarów, aby zapłacić za moc obliczeniową, którą wymagają najnowsze modele AI, i te pieniądze muszą pochodzić z gdzieś. Nawet gdy organizacja ma zasoby i zespół, aby napędzać badania nad dostosowaniem AI, rzeczywisty postęp nie następuje w nocy. Będzie to wymagało czasu, aby dowiedzieć się, jak najlepiej uzupełnić modele AI, aby przynieść korzyści praktykom i analitykom bezpieczeństwa, i jak w przypadku każdego nowego narzędzia, będzie krzywa uczenia się, gdy wprowadzane są integracje zabezpieczeń specyficzne dla języka naturalnego, czatboty i inne integracje wspomagane przez AI.

Generatywna AI jest nadal gotowa zmienić świat cyberbezpieczeństwa w nowy paradygmat, w którym ofensywne możliwości AI, które wykorzystują przeciwnicy i aktorzy zagrożeń, będą konkurować z modelami AI dostawców zabezpieczeń, zbudowanymi w celu wykrywania i monitorowania zagrożeń. Badania i rozwój niezbędne do napędzania tej zmiany po prostu zajmą trochę więcej czasu niż ogólna społeczność technologiczna przewidywała.

Dean, wiceprezes ds. Sztucznej Inteligencji w Arctic Wolf jest menedżerem, kierownikiem i osobą odpowiedzialną za cyberbezpieczeństwo, inżynierię danych oraz stosowaną naukę maszynową / AI. Dean ma szeroki zakres specjalizacji w realizacji wizji produktu, budowaniu i kierowaniu zespołami oraz tworzeniu i wdrażaniu systemów analitycznych dla klientów. Pełni funkcję w Radzie Doradczej Sektoru Prywatnego w Teksasie oraz w Radzie Doradczej ds. Sztucznej Inteligencji w Teksasie, a także jest aktywny w IEEE w zakresie polityki i standardów związanych z AI i cyberbezpieczeństwem.

Dean ma ponad 25-letnie doświadczenie w tworzeniu innowacyjnych produktów, w tym 18 lat jako kontrahent Departamentu Obrony i Wspólnoty Wywiadowczej, gdzie pracował nad projektami związanymi z sonarem taktycznym, wdrożeniem kontrśrodków dla samolotów i cyberbezpieczeństwem. Pracował również w kilku firmach z branży cyberbezpieczeństwa przed dołączeniem do Arctic Wolf, gdzie pełnił funkcję kierownika nauki o danych, inżynierii i innych stanowisk kierowniczych. Wcześniej Dean był głównym badaczem przez ponad 8 lat w dziale eksploatacji danych wieloagencyjnej (Departament Obrony / Wspólnota Wywiadowcza) sił zbrojnych zajmujących się cyberobroną przed atakami państw.

Dean posiada tytuł doktora w dziedzinie elektrotechniki i informatyki oraz magistra fizyki na Uniwersytecie Teksasu w Austin. Obecnie mieszka w Austin w Teksasie z żoną i dwójką dzieci.