Connect with us

Liderzy opinii

Kluczem są dane — nie sztuczna inteligencja

mm

Sztuczna inteligencja tak głęboko wniknęła w działanie firm, że w pewnym stopniu wpłynęła na niemal każdą operację. Patrząc konkretnie na wykorzystanie AI, obserwujemy, jak organizacje zanurzają się w nowszych formach sztucznej inteligencji, aby innowacyjnie rozwijać i iterować istniejące systemy. W rzeczy samej, ostatnie badanie wśród liderów IT wykazało, że 98% z nich już używa agentycznej AI do orkiestracji przypadków użycia GenAI lub planuje to zrobić w najbliższej przyszłości. Wśród eksplozji narzędzi i technologii AI, które pojawiły się w ciągu ostatnich kilku lat, agenci AI szybko stają się jednymi z najpopularniejszych. Agenci ci pomagają organizacjom robić wszystko — od poprawy doświadczeń klientów i wsparcia po automatyzację procesów wewnętrznych lub optymalizację już używanych modeli GenAI. Jednak skalowanie licznych korzyści płynących z agentów AI, a także AI w ogóle, na całe przedsiębiorstwo nie jest pozbawione trudności. Powód, dla którego wiele organizacji zmaga się ze skalowaniem AI, a w szczególności agentów AI, sprowadza się do zaufania, a nie technologii. Agenci AI z natury działają w wielu systemach. Gdziekolwiek te systemy się znajdują, jest wielce prawdopodobne, że zależą one od wysoce wrażliwych danych — czy to ogromnej ilości danych klientów, informacji medycznych, czy danych bankowych i finansowych. Tu właśnie leży problem. Pobieranie ogromnych ilości danych do dowolnego modelu AI, bez odpowiedniej infrastruktury prywatności i bezpieczeństwa danych, naraża przedsiębiorstwa na znaczne ryzyko. Niezależnie od wyników modelu AI, jest on wart zachodu tylko wtedy, gdy można ufać danym, które go wytrenowały. Ale chodzi o coś znacznie więcej niż tylko zapewnienie bezpieczeństwa danych. Zwłaszcza w przypadku agentów AI, istnieje duży stopień autonomii w sposobie działania tych modeli. Zapewnienie, że są one wyposażone w zrozumienie, kto powinien mieć dostęp do danych, kiedy i w jaki sposób, ma kluczowe znaczenie dla budowania zaufania. Pokonanie komplikacji związanych z prywatnością danych nie jest jednak niemożliwe. Dzięki odpowiednim politykom danych, zarządzaniu metadanymi, interfejsom API i korporacyjnym frameworkom autoryzacji, liderzy IT w przedsiębiorstwach mogą zapewnić, że dane zasilające ich AI są bezpieczne i godne zaufania. Przyjrzyjmy się temu bliżej.

Nawigowanie po prywatności danych a potrzeba AI na skalę

Jednym z szerszych celów integracji agentów AI w przedsiębiorstwie jest usprawnienie przepływów pracy w różnych operacjach i systemach. Ale robienie tego bez żadnych zabezpieczeń może przypadkowo narazić po drodze wrażliwe dane. W czasach, gdy naruszenia danych i złośliwe ataki nieustannie ewoluują, jakiekolwiek dane, które zostaną ujawnione lub uzyskane przez nieupoważnionych użytkowników, mogą oznaczać katastrofę — nie tylko dla inicjatywy AI, ale dla całego przedsiębiorstwa. Średni koszt naruszenia danych przekracza 4 miliony dolarów według stanu na 2025 rok, jak podaje IBM. Wdrażanie AI przyspiesza w szybkim tempie, często pozostawiając zarządzanie i bezpieczeństwo w tyle, gdy liderzy przedsiębiorstw dążą do większej innowacyjności, głębszych insightów i nowych możliwości wzrostu. Ale nawet gdy adopcja AI gwałtownie rośnie, polityki i wymagania regulacyjne ewoluują, aby nadążyć za tempem i zapewnić bezpieczeństwo danych. Od RODO przez CCPA aż po długo obowiązujące polityki takie jak HIPAA, komplikacje regulacyjne stanowią złożone wyzwanie dla skalowania agentów AI. Narzędzia AI wymagające ogromnych ilości danych, pozostawione bez kontroli, zwiększają ryzyko. Gdy modele AI sięgają po wszystkie te wewnętrzne systemy, wrażliwe dane są często przemieszczane i udostępniane w tym procesie. Jeśli chodzi o dane, agencje regulacyjne na całym świecie kładą coraz większy nacisk na zapewnienie prywatności, skutecznego zarządzania i solidnego bezpieczeństwa. Bardziej aktualne polityki, takie jak DORA — zestaw wytycznych dotyczących zarządzania ryzykiem ICT dla firm świadczących usługi finansowe działających w UE — wyraźnie wymagają klasyfikacji i raportowania incydentów ICT, w tym tych, które mają wpływ na poufność, integralność lub dostępność danych. I chociaż ta polityka kładzie główny nacisk na odporność operacyjną, jej implikacje sięgają także adopcji AI. W miarę jak więcej inicjatyw AI, w tym tych z agentami AI, sięga po dane w skali przedsiębiorstwa, rośnie ryzyko nieautoryzowanego dostępu. Gdyby projekt AI doprowadził do utraty lub ujawnienia danych, takie regulacje szybko stałyby się istotne. Mając tak wiele do stracenia, ważne jest, aby organizacje przedsiębiorstw nie traciły z oczu, jak ważne są bezpieczeństwo, zarządzanie i dostęp do danych.

Budowanie fundamentu do zasilania agentów AI

Przedsiębiorstwa muszą zbudować fundament oparty na skutecznym zarządzaniu, z solidnymi zabezpieczeniami i egzekwowalnymi regułami określającymi, co agenci mogą, a czego nie mogą robić. W sercu tego fundamentu leży zarządzanie danymi — wysokopoziomowe polityki, standardy i struktury zarządzające odpowiedzialnym wykorzystaniem danych w całej organizacji. Polityki te zapewniają, że agenci nie przekraczają swoich ról, czy to poprzez dostęp do zastrzeżonych zbiorów danych, czy inicjowanie procesów bez nadzoru człowieka. Wdrożenie solidnej polityki zarządzania danymi powinno rozpocząć się od kilku kluczowych punktów. Obejmują one odpowiedzialność i własność, jakość i spójność danych, bezpieczeństwo i prywatność, zgodność i możliwość audytu oraz przejrzystość i możliwość śledzenia. Mając te punkty jako podstawę zarządzania, liderzy przedsiębiorstw zyskują większą kontrolę nad podejmowaniem decyzji, większe zaufanie do swoich danych i zmniejszone ryzyko regulacyjne wynikające z silosów danych. Osiąga się to poprzez wykorzystanie możliwości takich jak zarządzanie metadanymi, klasyfikacja danych i śledzenie pochodzenia danych w celu zwiększenia przejrzystości i widoczności tego, kto lub jakie narzędzia AI mogą uzyskać dostęp. Każdy z tych mechanizmów pozwala przedsiębiorstwom śledzić, skąd pochodzą dane, jak przepływają i jak są przekształcane.

Technologia jest ważna, ale zaufanie ma znaczenie nadrzędne

Za każdym razem, gdy na scenie pojawia się nowy model AI lub innowacja, jego adopcja gwałtownie rośnie. Ale przy każdej inicjatywie AI pojawiają się ryzyka — choć nie zawsze tam, gdzie można by się spodziewać. Wyzwania techniczne, które często utrudniają adopcję nowych narzędzi, nie zawsze są winowajcą powolnej integracji AI. Często sprowadza się to do danych. Konkretnie, do zaufania do tych danych i obaw związanych z prywatnością. Ponieważ AI rozwija się tak szybko, czasami może stanowić wyzwanie zapewnienie, że takie elementy jak kontrola dostępu, zarządzanie danymi, śledzenie pochodzenia i zgodność nadążają za tym tempem. Zarządzanie jest ważną częścią zaufania, ale wymaga ono również skutecznych ewaluacji. Zwłaszcza w ramach agentycznej AI wciąż istnieje duża luka w standaryzowanych ocenach, a są one niezbędne do udowodnienia, że systemy działają niezawodnie i bezpiecznie. Niezależnie od tego, czy chcesz zoptymalizować wydajność systemów wewnętrznych, poprawić wykrywanie oszustw, czy po prostu uczynić doświadczenia klientów bardziej płynnymi, najlepsi agenci AI, a także inicjatywy AI w ogóle, są zbudowane na fundamencie zaufanych danych, prywatności i bezpieczeństwa.

//www.cloudera.com/">Chief AI Architect w Clouderze. Jest założycielką i CEO Verta, firmy z siedzibą w Menlo Park w Kalifornii, dostawcy platformy Verta Operational AI & LLM oraz Verta Model Catalog, które zostały niedawno przejęte przez Clouderę. Manasi wynalazła zarządzanie i śledzenie eksperymentów podczas pracy w MIT CSAIL, kiedy stworzyła ModelDB, pierwszy open-source'owy system zarządzania modelami wdrożony w firmach z listy Fortune 500 i prekursora MLflow. Po uzyskaniu doktoratu na MIT, Vartak objęła stanowiska data science w Twitterze, gdzie pracowała nad głębokim uczeniem do rekomendacji treści, oraz w Google, gdzie zajmowała się dynamicznym targetowaniem reklam.