Connect with us

Liderzy opinii

Jak Przedsiębiorstwa Powinny Rozwiązać Problem Przeciążenia Aplikacji AI?

mm

Niezbyt Osobisty Komputer

Przez lata rozwój technologiczny był napędzany pragnieniem uczynienia komputowania bardziej dostępnym. Od smartfonów po tablety, laptopy i wearable tech, istnieje ogólny trend czynienia komputerów i ich możliwości coraz bardziej osobistymi. Po prostu rozważ nomenklaturę kamieni milowych branży: “Personal Computer”, czyli PC; “i” Pod, Pad, Phone i więcej. Każdy z tych urządzeń jest przeznaczony do działania jako osobisty towarzysz, pomagając uproszczyć doświadczenie cyfrowe użytkownika i, przez rozszerzenie, ich życie.

Rozwój sztucznej inteligencji (AI) – w szczególności dużych modeli językowych (LLM) i rozwiązań agencji – idzie w dużej mierze w tym samym kierunku. Podobnie jak PC i iPhone, narzędzia AI, takie jak ChatGPT, uczyniły działania komputerowe, takie jak wyszukiwanie, edytowanie i generowanie pomysłów, bardziej dostępnymi dla ogółu. Ale gdy ta dostępność napędza wzrost wykorzystania, zwiększa również ryzyko.

Czy to przez zatrute konektory czy niewłaściwe indeksowanie silników wyszukiwania, zagrożenia dla prywatnego wykorzystania AI stają się coraz trudniejsze do ochrony. Dodaj niepewność, kto używa których narzędzi, a firmy stają w obliczu idealnej burzy rosnących zagrożeń i niewystarczającej ochrony. Biorąc pod uwagę obietnicę narzędzi AI i niepewność, jak je zabezpieczyć, co powinno zrobić przedsiębiorstwo o zorientowaniu na technologię?

Rozwój Nieautoryzowanych Aplikacji AI

Z ponad 700 milionami użytkowników dziennie w 2025 roku, wykorzystanie ChatGPT wzrosło ponad 4-krotnie w ciągu roku. Nawet tak, tylko pięć milionów tych użytkowników to płacący klienci biznesowi. To sprawia, że pozostałe 695 milionów lub takich członków ich bazy użytkowników to albo użytkownicy osobisci, albo nieautoryzowani użytkownicy biznesowi. Ta liczba wydaje się duża, aż do czasu, gdy pamiętamy, że ChatGPT nie jest jedynym rozwiązaniem AI na rynku. W rzeczywistości jest to daleko od tego – współczesny wybuch rozwoju AI i uczenia maszynowego wygenerował setki tysięcy nowych modeli i rozwiązań, zarówno publicznych, jak i prywatnych.

Dla firm wykładniczy wzrost rozwiązań AI spowodował powstanie nowej wymiary krajobrazu zagrożeń cybernetycznych, znanego jako “Shadow AI”. Podobnie jak zjawisko “Shadow IT”, ten koncept opiera się na wykorzystaniu przez pracowników rozwiązań AI bez uprzedniej weryfikacji i wyraźnej akceptacji ich organizacji. To całkowicie omija wszystkie nadzory IT i bezpieczeństwa, prowadząc do sytuacji, w których pracownicy mogą używać potencjalnie niebezpiecznych lub niebezpiecznych rozwiązań do wrażliwej pracy.

Użycie Shadow AI jest zarówno powszechne, jak i rozszerzające się. Jeden raport wykazał, że ponad 320 nieautoryzowanych aplikacji AI jest używanych średnio na przedsiębiorstwo. Każda z tych nieautoryzowanych aplikacji, a ich użycie przez pracowników, rozszerza krajobraz zagrożeń jeszcze dalej.

Wewnętrzne Ryzyka Przeciążenia AI

Zagrożenia związane z przeciążeniem AI są wielowymiarowe i, niestety, ciągle się rozszerzają. Niektóre, takie jak zatrucie danych, podanie podpowiedzi, manipulacja modelem i pobieranie danych, są powszechnie znane. Te bezpośrednie próby manipulacji AI i wykorzystania mogą umożliwić osobom niepożądanym dostęp do wrażliwych danych przedsiębiorstwa i wewnętrznych systemów. Biorąc pod uwagę to ryzyko, przedsiębiorstwa zaczynają aktywnie chronić się przed takimi atakami.

Ale firmy mogą chronić się tylko przed zagrożeniami, które znają. Pomyśl o zabezpieczeniu średniowiecznego zamku. Mury, wieże strażnicze, bramy, fosy i więcej pomagają zabezpieczyć zamek przed zewnętrznymi wrogami i najeźdźcami. Ale co, jeśli personel kuchenny ma tajny przejście, które omija zewnętrzne mury? Albo głośny strażnik jest podsłuchiwany, dyskutując o zmianach w lokalnej tawernie? Każde z tych nieznanych zagrożeń mogłoby pomóc złodziejom ominąć zabezpieczenia i naruszyć wewnętrzne mury.

Shadow AI ma taki sam efekt na bezpieczeństwo danych przedsiębiorstwa. Nawet dobrze zamierzone użycie nieautoryzowanych LLM i pilotów może spowodować katastrofę dla ochrony wrażliwych danych, ponieważ każde niebezpieczne rozwiązanie może służyć jako brama dla osób niepożądanych. Każde użycie LLM zwiększa ryzyko problemów, takich jak przechowywanie danych, podanie podpowiedzi lub uprzedzenia modelu, z których każde wymaga własnych odpowiednich środków bezpieczeństwa. To zwiększa ryzyko naruszeń danych, naruszeń zgodności i awarii operacyjnych, z których wszystkie są często identyfikowane dopiero po tym, jak szkoda już została wyrządzona.

Ustanowienie Kontroli nad Rozwiązaniami AI

Ponieważ użycie AI nadal rośnie na poziomie osobistym i przedsiębiorstw, jest niezwykle ważne, aby organizacje ustanowiły kontrolę nad tymi rozwiązaniami, zanim ich przyjęcie wykracza poza ich kontrolę. Zabezpieczanie przedsiębiorstw AI i ochrona przed nieautoryzowanymi ryzykami AI obejmuje:

  1. Uzyskanie kompleksowej widoczności. Jak wspomniano, nie można zabezpieczyć danych przed zagrożeniami, których nie jesteśmy świadomi. Bezpieczeństwo zaczyna się od nadzoru we wszystkich rozwiązań AI, których używają pracownicy – zarówno autoryzowanych, jak i nieautoryzowanych. To jest łatwiej powiedziane niż zrobione, ale rozwiązanie brokera dostępu do chmury (CASB) może pomóc ustanowić ciągłą widoczność w użyciu aplikacji przez pracowników.
  2. Przeprowadzenie gruntownych ocen ryzyka. Zespoły powinny prowadzić wysiłki TPRM, aby upewnić się, że wszystkie rozwiązania AI są oceniane pod kątem ich bezpieczeństwa i potencjalnych ryzyk. Te wysiłki powinny również dotyczyć poziomu czwartego dostawcy, ponieważ nawet autoryzowane aplikacje, takie jak CRM lub platformy produktywności, zaczynają osadzać zewnętrzne możliwości LLM w swoich platformach. Te rozwiązania czwartego dostawcy muszą spełniać te same standardy bezpieczeństwa, co każda wewnętrznie zatwierdzona aplikacja.
  3. Ustanowienie ram zarządzania. Z tym nadzorem i zrozumieniem swoich rozwiązań, organizacje mogą opracować i wdrożyć spójne ramy polityki zarządzania AI w całym ekosystemie aplikacji. Podobnie jak w przypadku dostępu do danych, te ramy polityki mogą pomóc kontrolować rodzaje rozwiązań AI, do których pracownicy mają dostęp, informacje, które mogą z nimi udostępnić, i przejrzystość ich codziennego użycia.
  4. Automatyzacja wykrywania ryzyka. Wzrost wykorzystania AI sprawia, że ręczne wykrywanie ryzyka i reakcja są prawie niemożliwe. Automatyzacja tych procesów na podstawie ram polityki i oczekiwanego zachowania użytkownika może pomóc w proaktywnym identyfikowaniu anomalii i ograniczaniu ich szerszego wpływu na bezpieczeństwo.
  5. Wyjaśnienie oczekiwań pracownikom. Najważniejszą częścią bezpiecznego wdrożenia AI i jego użycia są pracownicy. Zapewnienie odpowiedniej szkolenia i ustalenie wyraźnych oczekiwań pomoże jednocześnie zapobiec ryzykownemu użyciu AI i egzekwować bezpieczne, napędzające biznes użycie autoryzowanych i chronionych rozwiązań.

Utrzymywanie Bezpiecznego Wdrożenia AI

Ustanawiając tego rodzaju proaktywne środki bezpieczeństwa, firmy zyskują bardziej holistyczny widok sposobów, w jakie używają rozwiązań AI – zarówno autoryzowanych, jak i “w cieniu”. To ma natychmiastowy wpływ na bezpieczeństwo, pomagając zespołom identyfikować istniejące ryzyka i wektory zagrożeń oraz podejmować działania w celu ich usunięcia.

Jednak co ważniejsze, ustanawia to długoterminowy sukces AI. Tworząc techniczną podstawę dla bezpiecznego wdrożenia AI i kultury bezpieczeństwa wśród użytkowników AI, ten wieloaspektowy podejście pomaga utworzyć zrównoważony model dla przyszłych narzędzi AI. Wraz z wsparciem technicznym i odpowiednim szkoleniem, pracownicy mogą korzystać z korzyści AI bez obciążeń związanych z jego wewnętrznymi ryzykami.

Organizacje, które wprowadzą te zmiany wcześniej, będą najlepiej przygotowane do spotkania przyszłości rozwiązań AI, niezależnie od tego, co one przyniosą. Wprowadzając wstępne prace, aby utworzyć solidną podstawę – zamiast po prostu spieszyć się, aby odhaczyć pole wdrożenia AI – zespoły będą w najlepszej możliwej pozycji do zrównoważonego sukcesu napędzanego przez AI.

Thyaga Vasudevan jest wysokoenergetycznym profesjonalistą oprogramowania, obecnie pełniącym funkcję Executive Vice President, Product w Skyhigh Security, gdzie kieruje Product Management, Design, Product Marketing i GTM Strategies. Z bogatym doświadczeniem, skutecznie przyczynił się do budowy produktów w oparciu o oprogramowanie przedsiębiorstw SAAS (Oracle, Hightail - dawniej YouSendIt, WebEx, Vitalect) oraz Internetu konsumenckiego (Yahoo! Messenger - Voice and Video).

Jest poświęcony procesowi identyfikowania podstawowych problemów i przypadków użycia końcowych użytkowników i z przyjemnością prowadzi specyfikację i rozwój wysokiej techniki produktów i usług w celu rozwiązania tych wyzwań, w tym pomocy organizacjom w nawigowaniu delikatnej równowagi między ryzykiem a możliwościami. Thyaga lubi edukować i mentorować i miał przywilej wystąpić na renomowanych wydarzeniach, takich jak RSA, Trellix Xpand, MPOWER, AWS Re:invent, Microsoft Ignite, BoxWorks i Blackhat. Rozwija się na przecięciu technologii i rozwiązywania problemów, dążąc do napędzania innowacji, które nie tylko rozwiązują bieżące wyzwania, ale także przewidują przyszłe potrzeby.