Connect with us

Liderzy opinii

Tworzenie zaufania do agentów AI dzięki projektowi, a nie przypadkowi

mm
A photorealistic widescreen image of a compliance team overseeing an AI

Agentic AI nie przychodzi z fanfarami, ale raczej wprowadza się w codzienne operacje. Systemy, które wcześniej pozostawały bezczynne, czekając na sygnały od ludzi, teraz samodzielnie podejmują inicjatywę. Ta ewolucja już zachodzi wewnątrz organizacji, ale dyskusja o zarządzaniu AI pozostaje w erze poprzedniej. Nasze prawa i struktury organizacyjne nie zostały stworzone z myślą o autonomicznych, nie-ludzkich aktorach. Dla firm podlegających GDPR, nie jest to teoretyczna obawa, ale żywa wyzwanie operacyjne — i rozwija się szybciej niż większość zespołów compliance może komfortowo obsłużyć.

Gdy narzędzia AI zaczynają odpowiadać

Gdy dyskutujemy o zarządzaniu, uwaga koncentruje się zwykle na zgodności, zarządzaniu ryzykiem i zapobieganiu szkodzie. Chociaż są to bardzo ważne aspekty, zostały one stworzone dla świata, w którym AI była w dużej mierze statyczna: wytrenowana, przetestowana, wydana i monitorowana w przewidywalnych cyklach.

Z AI agentami włączonymi do procesów decyzyjnych, głównym wyzwaniem staje się teraz zachowanie i zaufanie. Menadżerowie muszą zadać sobie pytanie, “jak możemy zapewnić, że systemy zdolne do działania mogą również być godne zaufania?” Zaufanie jest wyborem projektowym, który musi być podjęty świadomie, a nie inżynieryjnie poprzez perswazję. Organizacje, które stosują wytyczne GDPR, rozumieją, że zgodność jest kluczowa i niesie ze sobą konsekwencje prawne.

Trzy sposoby, w jakie agentic AI łamie dzisiejsze założenia GDPR

Gdy GDPR został opracowany, nie został napisany dla autonomicznych agentów. Niemniej jednak, trzy z podstawowych zasad GDPR — ograniczenie celu, minimalizacja danych, przejrzystość i odpowiedzialność — są kluczowe. Agentic AI wpływa na każdy z nich w nowy sposób, a istnieją trzy kluczowe obszary, które wymagają rozwiązania.

Pierwsze ryzyko to sposób, w jaki agent AI “przetwarza” zadanie. Zamiast wykonywać jeden ustalony proces, dzieli pracę na wiele małych kroków, często wywołując zewnętrzne narzędzia, pobierając dane z baz danych, robienie przypuszczeń i obsługując dane osobowe po drodze. Większość z tego dzieje się poza zasięgiem wzroku. Określenie, jakie dane zostały użyte, w którym kroku i z jakiego powodu, jest trudne do wykonania w praktyce — a to jest właśnie rodzaj przejrzystości i odpowiedzialności, jaki oczekuje GDPR.

Drugie ryzyko to sposób, w jaki agenci wykorzystują pamięć. Mogą one przechowywać dane osobowe w pamięci krótkotrwałej podczas wykonywania zadania i w pamięci długotrwałej przez wiele sesji. Jeśli pamięć ta nie jest starannie oddzielona, informacje z interakcji jednej osoby mogą przeniknąć do interakcji innej osoby. Jeśli nie egzekwuje się wyraźnych limitów przechowywania, dane osobowe mogą pozostać przez długi czas po tym, jak powinny zostać usunięte. Zgodnie z prawem do usunięcia w GDPR, staje się to bardzo trudne do zarządzania, gdy dane są zakopane wewnątrz pamięci agenta, a nie w bazie danych, do której zespół ds. prywatności może łatwo uzyskać dostęp i przeszukać.

Trzecie ryzyko to wstrzyknięcie bodźca — co jest podstawowym sposobem na oszukanie agenta. Gdy agent czyta dokumenty, przegląda internet lub przetwarza przychodzące wiadomości, szkodliwa zawartość w tych źródłach może przejąć kontrolę nad jego zachowaniem, zmuszając go do ujawnienia danych osobowych lub skłonienia go do wykonania działań, których organizacja nie zatwierdziła. Jest to znany wzorzec ataku, który jest specyficzny dla systemów agentic. Oznacza to, że możesz doświadczyć naruszenia danych nie dlatego, że twoje podstawowe systemy zostały zhakowane, ale dlatego, że twój agent AI spotkał się z wrogą zawartością podczas wykonywania swojej pracy — i zgodnie z GDPR, nadal jesteś za to odpowiedzialny.

Budowanie prawdziwego zaufania, a nie tylko przyjaznego interfejsu

Ważne jest, aby zrozumieć, że istnieje różnica między zaufaniem inżynieryjnym a zaufaniem zdobytym. Zaufanie inżynieryjne może pomóc przekonać użytkowników o pewnym punkcie, zwykle za pomocą lustrzanych emocji, antropomorficznych sygnałów lub perswazyjnego projektowania.

Jednak trwałe zaufanie dotyczy systemów, które zachowują się w sposób zrozumiały, przewidywalny i oceny ludzi. Powody, granice i intencje agenta są uzasadnione. Jest to warunek wstępny dla projektowania zgodnego z GDPR, w którym przejrzystość musi być znacząca.

Co oznacza Trust Stack?

Jedną ze strategii dla organizacji jest wykorzystanie warstwowego stosu zaufania. Oznacza to, że każda warstwa wyjaśnia odpowiedzialność między ludźmi a maszynami.

  • Wyraźne ścieżki rozumowania: Agent powinien być w stanie wyjaśnić, jak i dlaczego wyprodukował wynik — nie z głębokimi detalami technicznymi, ale w sposób, który można śledzić i sprawdzić. To pokrywa się z zasadami przejrzystości GDPR i prawem do wyjaśnienia decyzji zautomatyzowanych zgodnie z Artykułem 22.
  • Wyraźne granice władzy: Muszą istnieć wyraźne granice tego, co agent jest upoważniony do zrobienia, zdecydowania lub zalecenia. Żadnego cichego rozszerzania jego wolności z czasem. Dla celów GDPR oznacza to, że ludzie nadal podejmują decyzje; agent jest narzędziem, a nie kontrolerem.
  • Otwarte cele: Cele agenta muszą być jawne. Ludzie powinni wiedzieć, czy optymalizuje on dokładność, bezpieczeństwo, szybkość czy zysk komercyjny — i ten cel musi być napisany i zrozumiały.
  • Łatwe wyzwanie i przycisk stop: Ludzie muszą być w stanie zakwestionować, skorygować lub wyłączyć decyzje agenta bez tarcia. Prosty sposób na rezygnację jest niezbędny do zaufania — i zgodnie z Artykułem 22, jest to również wymóg prawny.
  • Wbudowane zarządzanie: Rejestrowanie, kontrole, kontrola pamięci i nadzór muszą być wbudowane w system od samego początku, a nie dodane później. Prywatność poprzez projekt nie jest opcjonalna; jest to podstawowa struktura, która sprawia, że wszystko inne działa.

Wykorzystanie Trust Stack sprawia, że autonomia jest bezpieczna do skalowania.

Gdy zarządzanie spotyka się z rzeczywistym doświadczeniem

Zarządzanie nie dotyczy tylko reguł i procesów. Dotyczy również tego, jak systemy są odbierane przez ludzi, którzy je używają. Ludzie muszą czuć, że nadal mają kontrolę. Muszą widzieć, kiedy AI działa, zrozumieć, dlaczego robi coś, i wiedzieć, jak wkroczyć, gdy powinno się zatrzymać.

Systemy, które spełniają wymóg zgodności, ale wyglądają jak czarna skrzynka, tracą zaufanie szybko. Wymaga to bardzo świadomych wyborów projektowych: żadnych sygnałów ludzkich, które sugerują empatię lub moralne osądy, których system nie posiada; wyraźne sygnały, gdy AI jest niepewne lub ograniczone; i żadnego dostosowywania doświadczenia, aby stworzyć emocjonalną zależność.

Liderzy powinni wyjść poza pytanie: “Czy nasz AI jest odpowiedzialny?” Lepszym zestawem pytań jest: “Jakie zachowania ten system uczyni normalnymi? Co będzie cicho odpychał ludzi? Jak ukształtuje osąd z czasem — i czy jesteśmy gotowi odpowiedzieć za to?”

Ivana Bartoletti jest Globalnym Dyrektorem ds. Prywatności i Zarządzania Sztuczną Inteligencją w firmie Wipro, wiodącej firmie świadczącej usługi technologiczne i konsultingowe oparte na sztucznej inteligencji. Jako międzynarodowo uznany lider myśli w dziedzinie prywatności, zarządzania sztuczną inteligencją i odpowiedzialnej technologii, Ivana pełni funkcję eksperta w Radzie Europy, gdzie współautorsko opracowała przełomowe badanie dotyczące wpływu sztucznej inteligencji na równość płci.