Connect with us

Liderzy opinii

Otwieranie czarnej skrzynki sztucznej inteligencji

mm

Sztuczna inteligencja (AI) stała się nierozerwalną częścią niemal wszystkich aspektów naszego codziennego życia, od personalizowanych rekomendacji po podejmowanie krytycznych decyzji. Jest rzeczą oczywistą, że AI będzie nadal się rozwijać, a wraz z tym, zagrożenia związane z AI również staną się bardziej złożone. Podczas gdy firmy wdrażają obrony oparte na AI w odpowiedzi na rosnącą złożoność, kolejnym krokiem w kierunku promowania organizacyjnej kultury bezpieczeństwa jest poprawa wyjaśnialności AI.

Chociaż te systemy oferują imponujące możliwości, często funkcjonują jako “czarne skrzynki” – wytwarzają wyniki bez jasnego wglądu w to, jak model doszedł do wniosku, do którego doszedł. Problem systemów AI, które tworzą fałszywe stwierdzenia lub podejmują fałszywe działania może powodować znaczne problemy i potencjalne zakłócenia biznesowe. Kiedy firmy popełniają błędy z powodu AI, ich klienci i konsumenci domagają się wyjaśnienia i niedługo potem, rozwiązania.

Ale co jest winne? Często używane są złe dane do szkolenia. Na przykład, większość publicznych technologii GenAI jest szkolona na danych dostępnych w Internecie, które często są niezweryfikowane i niedokładne. Chociaż AI może generować szybkie odpowiedzi, dokładność tych odpowiedzi zależy od jakości danych, na których została wyszkolona.

Błędy AI mogą wystąpić w różnych przypadkach, w tym generowaniu skryptów z nieprawidłowymi poleceniami i fałszywymi decyzjami bezpieczeństwa, lub odrzuceniu pracownika od pracy w systemach biznesowych z powodu fałszywych oskarżeń zgłoszonych przez system AI. Wszystkie te przypadki mają potencjał powodować znaczne awarie biznesowe. Jest to tylko jeden z wielu powodów, dla których zapewnienie przejrzystości jest kluczem do budowania zaufania w systemach AI.

Budowanie zaufania

Istniejemy w kulturze, w której ufamy różnym źródłom i informacjom. Ale jednocześnie, coraz bardziej wymagamy dowodów i walidacji, potrzebując ciągłej weryfikacji wiadomości, informacji i twierdzeń. Kiedy chodzi o AI, ufamy systemowi, który ma potencjał być niedokładnym. Co więcej, jest niemożliwe, aby wiedzieć, czy działania systemów AI są dokładne, bez żadnej przejrzystości co do podstawy, na której są podejmowane decyzje. Co, jeśli Twój system AI zabezpieczeń wyłącza maszyny, ale popełnił błąd w interpretacji sygnałów? Bez wglądu w informacje, które doprowadziły system do podjęcia tej decyzji, nie ma sposobu, aby wiedzieć, czy podjął słuszną decyzję.

Chociaż zakłócenia biznesowe są frustrujące, jednym z większych problemów związanych z użyciem AI jest prywatność danych. Systemy AI, takie jak ChatGPT, są modelami uczenia maszynowego, które czerpią odpowiedzi z danych, które otrzymują. Dlatego, jeśli użytkownicy lub deweloperzy przypadkowo udostępniają wrażliwe informacje, model uczenia maszynowego może użyć tych danych do generowania odpowiedzi dla innych użytkowników, które ujawniają poufne informacje. Te błędy mają potencjał powodować znaczne zakłócenia wydajności, zysków i, co najważniejsze, zaufania klientów. Systemy AI są przeznaczone do zwiększania wydajności i ułatwiania procesów, ale w przypadku, gdy ciągła weryfikacja jest konieczna, ponieważ dane wyjściowe nie mogą być ufałe, organizacje nie tylko tracą czas, ale także otwierają drzwi do potencjalnych luk w zabezpieczeniach.

Szkolenie zespołów w odpowiedzialnym użyciu AI

Aby chronić organizacje przed potencjalnymi ryzykami związanymi z użyciem AI, profesjonaliści IT mają ważną odpowiedzialność za odpowiednie szkolenie swoich kolegów, aby zapewnić, że AI jest używany w sposób odpowiedzialny. Dzięki temu, pomagają utrzymać swoje organizacje w bezpieczeństwie przed atakami cybernetycznymi, które zagrażają ich żywotności i zyskowności.

Jednak przed szkoleniem zespołów, liderzy IT muszą wewnętrznie uzgodnić, które systemy AI będą odpowiednie dla ich organizacji. Wprowadzanie AI w pośpiechu tylko odbije się później, więc zamiast tego, zacznij od małych kroków, koncentrując się na potrzebach organizacji. Upewnij się, że standardy i systemy, które wybierasz, są zgodne z aktualnym zestawem technologicznym Twojej organizacji i celami biznesowymi, oraz że systemy AI spełniają te same standardy bezpieczeństwa, co inne dostawcy, których wybierasz.

Gdy system zostanie wybrany, profesjonaliści IT mogą następnie zacząć szkolić swoje zespoły, aby zapewnić sukces. Zacznij od używania AI do małych zadań i zobacz, gdzie działa dobrze, a gdzie nie, i dowiedz się, jakie potencjalne niebezpieczeństwa lub walidacje są potrzebne. Następnie wprowadź użycie AI, aby ułatwić pracę, umożliwiając szybsze samodzielne rozwiązywanie problemów, w tym proste pytania “jak to zrobić”. Stamtąd można nauczyć, jak wprowadzać walidacje. Jest to cenne, ponieważ zaczniemy widzieć więcej prac, które stają się bardziej związane z ustawianiem warunków brzegowych i walidacjami, i już widzimy to w pracach, takich jak użycie AI do pomocy w pisaniu oprogramowania.

Oprócz tych konkretnych kroków szkoleniowych dla członków zespołu, inicjowanie i zachęcanie do dyskusji jest również niezwykle ważne. Zachęcaj do otwartych, opartych na danych, dialogów na temat tego, jak AI służy potrzebom użytkowników – czy rozwiązuje problemy dokładnie i szybko, czy zwiększamy produktywność zarówno dla firmy, jak i użytkownika końcowego, czy nasz wynik NPS klienta wzrasta dzięki tym narzędziom AI? Bądź klarowny co do zwrotu z inwestycji (ROI) i trzymaj to na pierwszym planie. Jasna komunikacja pozwoli na rozwój świadomości odpowiedzialnego użycia, a gdy członkowie zespołu lepiej zrozumieją, jak działają systemy AI, będą bardziej skłonni używać ich w sposób odpowiedzialny.

Jak osiągnąć przejrzystość w AI

Chociaż szkolenie zespołów i zwiększanie świadomości jest ważne, aby osiągnąć przejrzystość w AI, jest niezwykle ważne, aby było więcej kontekstu wokół danych, które są używane do szkolenia modeli, zapewniając, że używane są tylko dane wysokiej jakości. Być może kiedyś będzie sposób, aby zobaczyć, jak system podejmuje decyzje, abyśmy mogli mu całkowicie ufać. Ale do tego czasu, potrzebujemy systemów, które mogą działać z walidacjami i barierami ochronnymi i udowodnić, że przestrzegają ich.

Chociaż pełna przejrzystość z pewnością potrwa trochę czasu w osiągnięciu, szybki rozwój AI i jej użycia czyni to konieczne, aby pracować szybko. Podczas gdy modele AI coraz bardziej zwiększają swoją złożoność, mają moc, aby wywrzeć duży wpływ na ludzkość, ale konsekwencje ich błędów również rosną. W związku z tym, zrozumienie, jak te systemy dochodzą do swoich decyzji, jest niezwykle cenne i niezbędne, aby pozostać skutecznym i godnym zaufania. Poprzez skupienie się na przejrzystych systemach AI, możemy zapewnić, że technologia ta jest tak użyteczna, jak została zamierzona, pozostając jednocześnie bezstronną, etyczną, wydajną i dokładną.

Manny Rivelo jest dyrektorem generalnym ConnectWise, gdzie jest zaangażowany w misję firmy, aby wspierać dostawców usług zarządzanych (MSP) niezrównanym oprogramowaniem, usługami i społecznością, aby osiągnąć ich najambitniejszą wizję sukcesu. Jako były dyrektor generalny Forcepoint, Rivelo poprowadził transformację biznesu w głównego gracza w przestrzeni cyberbezpieczeństwa, napędzając wzrost i innowacje w obliczu ewoluujących cyberzagrożeń. Na przestrzeni swojej kariery, Manny Rivelo zdobył reputację lidera ukierunkowanego na wyniki, który koncentruje się na tworzeniu zrównoważonych modeli biznesowych i napędzaniu długoterminowej wartości w szybko zmieniającym się technologicznym krajobrazie.