Connect with us

David Maher, CTO of Intertrust – Interview Series

Wywiady

David Maher, CTO of Intertrust – Interview Series

mm

David Maher pełni funkcję Executive Vice President i Chief Technology Officer w Intertrust. Z ponad 30-letnim doświadczeniem w zaufanych systemach rozproszonych, bezpiecznych systemach i zarządzaniu ryzykiem, Dave kierował działami B+R i zajmował stanowiska kierownicze w filiach firmy. Był prezesem Seacert Corporation, urzędu certyfikacji dla mediów cyfrowych i IoT, oraz prezesem whiteCryption Corporation, dewelopera systemów samoobrony oprogramowania. Pełnił również funkcję współprzewodniczącego Marlin Trust Management Organization (MTMO), która nadzoruje jedyny na świecie niezależny ekosystem zarządzania cyfrowymi prawami.

Intertrust opracował innowacje umożliwiające systemom operacyjnym rozproszonym zabezpieczać i zarządzać danymi oraz obliczeniami w sieciach otwartych, co skutkowało podstawowym patentem na zaufane obliczenia rozproszone.

Początkowo zakorzenione w badaniach, Intertrust ewoluował w firmę o charakterze produkcyjnym, oferując usługi obliczeń zaufanych, które ujednolicają operacje urządzeń i danych, szczególnie dla IoT i AI. Ich rynki obejmują dystrybucję mediów, identyfikację i uwierzytelnianie urządzeń, zarządzanie energią cyfrową, analitykę i bezpieczeństwo magazynowania w chmurze.

Jak możemy zamknąć lukę zaufania w AI i rozwiązać rosnące obawy społeczeństwa o bezpieczeństwo i niezawodność AI?

Przezroczystość jest najważniejszą cechą, która, moim zdaniem, pomoże rozwiązać rosnące obawy o AI. Przezroczystość obejmuje funkcje, które pomagają zarówno konsumentom, jak i technologom zrozumieć, jakie mechanizmy AI są częścią systemów, z którymi wchodzimy w interakcje, jaki mają rodowód: w jaki sposób model AI jest szkolony, jakie istnieją zabezpieczenia, jakie polityki zostały zastosowane podczas rozwoju modelu, oraz jakie inne gwarancje istnieją dla bezpieczeństwa i zabezpieczeń danego mechanizmu. Z większą przejrzystością będziemy mogli rozwiązać rzeczywiste ryzyka i problemy, a nie będziemy rozpraszać się przez irracjonalne obawy i spekulacje.

Jaka rola odgrywa uwierzytelnianie metadanych w zapewnieniu zaufania danych wyjściowych AI?

Uwierzytelnianie metadanych pomaga zwiększyć naszą pewność, że gwarancje dotyczące modelu AI lub innego mechanizmu są wiarygodne. Karta modelu AI jest przykładem zbioru metadanych, który może pomóc w ocenie wykorzystania mechanizmu AI (modelu, agenta itp.) do określonego celu. Musimy ustanowić standardy dla jasności i kompletności kart modeli ze standardami dla pomiarów ilościowych i uwierzytelnionych twierdzeń o wydajności, stronniczości, właściwościach danych szkoleniowych itp.

Jak organizacje mogą ograniczyć ryzyko stronniczości i halucynacji w dużych modelach językowych (LLM)?

Red teaming to ogólny podejście do rozwiązywania tych i innych ryzyk podczas rozwoju i przed wydaniem modeli. Początkowo stosowane do oceny bezpiecznych systemów, to podejście staje się standardem dla systemów opartych na AI. Jest to podejście systemowe do zarządzania ryzykiem, które może i powinno obejmować cały cykl życia systemu, od początkowego rozwoju do wdrożenia, pokrywając cały łańcuch dostaw rozwoju. Szczególnie istotne jest klasyfikacja i uwierzytelnianie danych szkoleniowych wykorzystanych do modelu.

Jakie kroki mogą przedsięwziąć firmy, aby stworzyć przejrzystość w systemach AI i zmniejszyć ryzyko związane z problemem “czarnej skrzynki”?

Zrozum, w jaki sposób firma będzie wykorzystywać model i jakie rodzaje odpowiedzialności może ponieść wdrożenie, czy to do użytku wewnętrznego, czy do użytku przez klientów, bezpośrednio lub pośrednio. Następnie zrozum, co nazywam rodowodem mechanizmów AI, które będą wdrożone, w tym twierdzenia na karcie modelu, wyniki prób czerwonej drużyny, analiza różnicowa w określonym użyciu firmy, co zostało formalnie ocenione i jakie doświadczenia mieli inni. Wewnętrzne testy przy użyciu kompleksowego planu testowego w realistycznym środowisku są absolutnie wymagane. Najlepsze praktyki ewoluują w tym powstającym obszarze, więc ważne jest, aby być na bieżąco.

Jak można zaprojektować systemy AI z uwzględnieniem wytycznych etycznych, a jakie są wyzwania w osiągnięciu tego w różnych branżach?

To jest obszar badań, a wielu twierdzi, że pojęcie etyki i obecne wersje AI są niezgodne, ponieważ etyka opiera się na pojęciach, a mechanizmy AI są w dużej mierze oparte na danych. Na przykład proste reguły, które ludzie rozumieją, takie jak “nie oszukuj”, są trudne do zapewnienia. Jednak staranna analiza interakcji i konfliktów celów w uczeniu opartym na celach, wykluczenie wątpliwych danych i dezinformacji oraz wprowadzenie reguł, które wymagają użycia filtrów wyjściowych, które egzekwują barierki i testują naruszenia zasad etycznych, takich jak zachęcanie lub współczucie w treści wyjściowej, powinny być brane pod uwagę. Podobnie, rygorystyczne testy na stronniczość mogą pomóc w wyalignowaniu modelu z zasadami etycznymi. Ponownie, wiele z tego może być pojęciowe, więc należy zwrócić uwagę na testowanie efektów danego podejścia, ponieważ mechanizm AI nie “zrozumie” instrukcji tak, jak ludzie.

Jakie są kluczowe ryzyka i wyzwania, przed którymi stoi AI w przyszłości, szczególnie wraz ze wzrostem integracji z systemami IoT?

Chcemy wykorzystywać AI do automatyzacji systemów, które optymalizują procesy infrastruktury krytycznej. Na przykład wiemy, że możemy zoptymalizować dystrybucję i użycie energii przy użyciu wirtualnych elektrowni, które koordynują tysiące elementów produkcji, magazynowania i użycia energii. Jest to możliwe tylko dzięki masowej automatyzacji i użyciu AI do wspomagania podejmowania decyzji na minutę. Systemy będą zawierać agenci z konfliktowymi celami optymalizacji (np. dla korzyści konsumenta vs dostawcy). Bezpieczeństwo i zaufanie AI będą kluczowe w szerokim wdrożeniu takich systemów.

Jaki rodzaj infrastruktury jest potrzebny do bezpiecznej identyfikacji i uwierzytelniania podmiotów w systemach AI?

Będziemy wymagać solidnej i wydajnej infrastruktury, za pomocą której podmioty zaangażowane w ocenę wszystkich aspektów systemów AI i ich wdrożenia mogą publikować autoryzowane i uwierzytelnione twierdzenia o systemach AI, ich pochodzeniu, dostępnych danych szkoleniowych, pochodzeniu danych sensorycznych, zdarzeniach i incydentach związanych z bezpieczeństwem itp. Ta infrastruktura również musi umożliwić sprawdzanie twierdzeń i oświadczeń przez użytkowników systemów, które zawierają mechanizmy AI, oraz przez elementy w systemach zautomatyzowanych, które podejmują decyzje na podstawie danych wyjściowych z modeli AI i optymalizatorów.

Czy mógłbyś podzielić się z nami swoimi spostrzeżeniami na temat tego, nad czym pracujesz w Intertrust i jak to wpisuje się w to, co omawialiśmy?

Badamy i projektujemy technologię, która może zapewnić infrastrukturę zarządzania zaufaniem, która jest wymagana w poprzednim pytaniu. Konkretnie zajmujemy się problemami skali, opóźnień, bezpieczeństwa i interoperacyjności, które pojawiają się w systemach IoT, które zawierają składniki AI.

Jak usługa PKI (Public Key Infrastructure) Intertrust zabezpiecza urządzenia IoT, a co sprawia, że jest ona skalowalna dla dużych wdrożeń?

Nasza infrastruktura PKI została zaprojektowana specjalnie do zarządzania zaufaniem dla systemów, które obejmują zarządzanie urządzeniami i treścią cyfrową. Wdrożyliśmy miliardy kluczy kryptograficznych i certyfikatów, które zapewniają zgodność. Nasze bieżące badania dotyczą skali i gwarancji, które wymagają masowa automatyzacja przemysłowa i krytyczna infrastruktura na całym świecie, w tym najlepsze praktyki dla wdrożeń “zero-trust” i uwierzytelniania urządzeń i danych, które mogą pomieścić biliony sensorów i generatorów zdarzeń.

Co skłoniło Cię do dołączenia do inicjatyw AI NIST, a jak Twoje zaangażowanie przyczynia się do tworzenia godnych zaufania i bezpiecznych standardów AI?

NIST ma ogromne doświadczenie i sukces w tworzeniu standardów i najlepszych praktyk w systemach bezpiecznych. Jako Principal Investigator dla US AISIC z Intertrust, mogę promować ważne standardy i najlepsze praktyki w tworzeniu systemów zarządzania zaufaniem, które zawierają mechanizmy AI. Z doświadczenia doceniam podejście, które NIST stosuje do promowania kreatywności, postępu i współpracy przemysłowej, jednocześnie pomagając w formułowaniu i promowaniu ważnych standardów technicznych, które promują interoperacyjność. Te standardy mogą pobudzić przyjęcie korzystnych technologii, jednocześnie rozwiązując rodzaje ryzyka, z którymi boryka się społeczeństwo.

Dziękujemy za wspaniałe wywiady, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Intertrust.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.