Connect with us

Interviews

David Maher, CTO van Intertrust – Interview Serie

mm

David Maher fungeert als Executive Vice President en Chief Technology Officer van Intertrust. Met meer dan 30 jaar ervaring in vertrouwde gedistribueerde systemen, beveiligde systemen en risicobeheer heeft Dave leidinggevende posities ingenomen en R&D-inspanningen geleid binnen de dochterondernemingen van het bedrijf. Hij was voorheen president van Seacert Corporation, een Certificate Authority voor digitale media en IoT, en president van whiteCryption Corporation, een ontwikkelaar van systemen voor zelfverdediging van software. Hij was ook co-voorzitter van de Marlin Trust Management Organization (MTMO), die toezicht houdt op het enige onafhankelijke ecosysteem voor digitale rechtenbeheer ter wereld.

Intertrust heeft innovaties ontwikkeld die het mogelijk maken dat gedistribueerde besturingssystemen gegevens en berekeningen over open netwerken beveiligen en besturen, wat resulteert in een fundamentele octrooi op vertrouwd gedistribueerd rekenen.

Oorspronkelijk geworteld in onderzoek, is Intertrust geëvolueerd tot een productgerichte onderneming die vertrouwde computerservices aanbiedt die apparaat- en gegevensoperaties verenigen, met name voor IoT en AI. De markten van het bedrijf omvatten mediadistributie, apparaatidentiteit/authenticatie, digitale energiemanagement, analytics en cloudopslagbeveiliging.

Hoe kunnen we de AI-vertrouwenskloof dichten en de groeiende bezorgdheid van het publiek over AI-veiligheid en -betrouwbaarheid aanpakken?

Transparantie is de belangrijkste kwaliteit die ik geloof zal helpen bij het aanpakken van de groeiende bezorgdheid over AI. Transparantie omvat functies die zowel consumenten als technologieën helpen om te begrijpen welke AI-mechanismen deel uitmaken van systemen waarmee we interacteren, wat voor soort afkomst ze hebben: hoe een AI-model getraind is, welke beveiligingsmaatregelen er bestaan, welke beleidsregels zijn toegepast bij de ontwikkeling van het model en welke andere waarborgen er zijn voor de veiligheid en beveiliging van een bepaalde mechanisme. Met grotere transparantie zullen we in staat zijn om echte risico’s en problemen aan te pakken en niet zo veel afgeleid te worden door irrationele angsten en speculaties.

Wat is de rol van metadata-authenticatie bij het waarborgen van de betrouwbaarheid van AI-uitvoer?

Metadata-authenticatie helpt onze vertrouwen te vergroten dat waarborgen over een AI-model of een andere mechanisme betrouwbaar zijn. Een AI-modelkaart is een voorbeeld van een verzameling metadata die kan helpen bij het evalueren van het gebruik van een AI-mechanisme (model, agent, etc.) voor een specifiek doel. We moeten standaarden vaststellen voor duidelijkheid en volledigheid voor modelkaarten met standaarden voor kwantitatieve metingen en geauthenticeerde beweringen over prestaties, vooroordelen, eigenschappen van trainingsgegevens, enz.

Hoe kunnen organisaties het risico van AI-vooringenomenheid en hallucinaties in grote taalmodellen (LLM’s) mitigeren?

Red teaming is een algemene aanpak voor het aanpakken van deze en andere risico’s tijdens de ontwikkeling en voorafgaand aan de release van modellen. Oorspronkelijk gebruikt om beveiligde systemen te evalueren, wordt deze aanpak nu standaard voor AI-gebaseerde systemen. Het is een systeemaanpak voor risicobeheer die de hele levenscyclus van een systeem kan en moet omvatten, van de initiële ontwikkeling tot de implementatie in het veld, en de hele ontwikkelingsketen bestrijkt. Vooral critical is de classificatie en authenticatie van de trainingsgegevens die voor een model worden gebruikt.

Welke stappen kunnen bedrijven nemen om transparantie in AI-systemen te creëren en de risico’s te verminderen die verbonden zijn aan het “black box”-probleem?

Begrijp hoe het bedrijf het model gaat gebruiken en welke soort aansprakelijkheid het kan hebben bij de implementatie, of het nu voor intern gebruik is of voor gebruik door klanten, direct of indirect. Vervolgens moet u begrijpen wat ik de afkomst van de AI-mechanismen noem die worden geïmplementeerd, inclusief beweringen op een modelkaart, resultaten van rode teamproeven, differentiële analyse op het specifieke gebruik van het bedrijf, wat formeel is geëvalueerd en wat de ervaring is van andere mensen. Interne testing met een uitgebreid testplan in een realistische omgeving is absoluut vereist. Best practices evolueren in dit nog prille gebied, dus het is belangrijk om bij te blijven.

Hoe kunnen AI-systemen worden ontworpen met ethische richtlijnen in gedachten, en wat zijn de uitdagingen bij het bereiken hiervan in verschillende industrieën?

Dit is een onderzoeksgebied, en velen beweren dat het concept van ethiek en de huidige versies van AI incongruent zijn, aangezien ethiek conceptueel zijn gebaseerd en AI-mechanismen voornamelijk op gegevens zijn gebaseerd. Bijvoorbeeld, eenvoudige regels die mensen begrijpen, zoals “valsspelen niet”, zijn moeilijk te garanderen. Echter, zorgvuldige analyse van interacties en conflicten van doelen in doelgebaseerd leren, uitsluiting van verdachte gegevens en desinformatie, en het opnemen van regels die het gebruik van uitvoerfilters vereisen die guardrails afdwingen en testen op schendingen van ethische principes, zoals het aanmoedigen of sympathiseren met het gebruik van geweld in uitvoerinhoud, moeten in overweging worden genomen. Bovendien kan rigoureuze testing op vooroordelen helpen om een model meer in overeenstemming te brengen met ethische principes. Weer moet hierbij veel aandacht worden besteed aan het testen van de effecten van een bepaalde aanpak, aangezien het AI-mechanisme instructies niet op dezelfde manier zal “begrijpen” als mensen.

Wat zijn de belangrijkste risico’s en uitdagingen waarmee AI in de toekomst wordt geconfronteerd, vooral nu het meer geïntegreerd raakt met IoT-systemen?

We willen AI gebruiken om systemen te automatiseren die kritieke infrastructuurprocessen optimaliseren. Bijvoorbeeld, we weten dat we energiedistributie en -gebruik kunnen optimaliseren met behulp van virtuele elektriciteitscentrales, die duizenden elementen van energietoename, -opslag en -gebruik coördineren. Dit is alleen praktisch met massive automatisering en het gebruik van AI om te helpen bij minuutbeslissingen. Systemen zullen agents bevatten met conflicterende optimalisatiedoelen (bijv. voor het voordeel van de consument vs de leverancier). AI-veiligheid en -beveiliging zullen kritiek zijn bij de grootschalige implementatie van dergelijke systemen.

Welke soort infrastructuur is nodig om entiteiten in AI-systemen veilig te identificeren en te authenticeren?

We zullen een robuuste en efficiënte infrastructuur nodig hebben waarbij entiteiten die alle aspecten van AI-systemen en hun implementatie evalueren, autoritaire en geauthenticeerde claims over AI-systemen, hun afkomst, beschikbare trainingsgegevens, de herkomst van sensordata, beveiligingsincidenten en -gebeurtenissen, enz. kunnen publiceren. Die infrastructuur moet het ook efficiënt maken om claims en beweringen van gebruikers van systemen die AI-mechanismen bevatten en van elementen in geautomatiseerde systemen die beslissingen nemen op basis van uitvoer van AI-modellen en -optimalisatoren te verifiëren.

Kunt u ons enkele inzichten geven in wat u bij Intertrust werkt en hoe dit zich verhoudt tot wat we hebben besproken?

We onderzoeken en ontwerpen technologie die de soort trustmanagement-infrastructuur kan bieden die in de vorige vraag is vereist. We richten ons specifiek op het aanpakken van problemen van schaal, latentie, beveiliging en interoperabiliteit die optreden in IoT-systemen die AI-componenten bevatten.

Hoe zorgt Intertrust‘s PKI (Public Key Infrastructure) service ervoor dat IoT-apparaten worden beveiligd, en wat maakt het schaalbaar voor grootschalige implementaties?

Onze PKI is specifiek ontworpen voor trustmanagement voor systemen die de governance van apparaten en digitale inhoud omvatten. We hebben miljarden cryptografische sleutels en certificaten geïmplementeerd die naleving garanderen. Ons huidige onderzoek richt zich op de schaal en waarborgen die massive industriële automatisering en kritieke wereldwijde infrastructuur vereisen, inclusief best practices voor “zero-trust”-implementaties en apparaat- en gegevensauthenticatie die triljoenen sensoren en gebeurtenisgeneratoren kunnen accommoderen.

Wat motiveerde u om deel te nemen aan NIST’s AI-initiatieven, en hoe draagt uw betrokkenheid bij aan het ontwikkelen van betrouwbare en veilige AI-standaarden?

NIST heeft enorm veel ervaring en succes in het ontwikkelen van standaarden en best practices in beveiligde systemen. Als Principal Investigator voor de US AISIC van Intertrust, kan ik pleiten voor belangrijke standaarden en best practices in het ontwikkelen van trustmanagementsystemen die AI-mechanismen omvatten. Uit eerdere ervaringen waardeer ik vooral de aanpak die NIST hanteert om creativiteit, vooruitgang en industriële samenwerking te bevorderen, terwijl het ook helpt bij het formuleren en promulgeren van belangrijke technische standaarden die interoperabiliteit bevorderen. Deze standaarden kunnen de adoptie van gunstige technologieën stimuleren, terwijl ze ook de soort risico’s aanpakken waarmee de samenleving wordt geconfronteerd.

Bedankt voor het geweldige interview, lezers die meer willen leren, kunnen Intertrust bezoeken.

Antoine is een visionaire leider en oprichtend partner van Unite.AI, gedreven door een onwankelbare passie voor het vormgeven en promoten van de toekomst van AI en robotica. Een seriële ondernemer, hij gelooft dat AI net zo disruptief voor de samenleving zal zijn als elektriciteit, en wordt vaak betrapt op het enthousiast praten over het potentieel van disruptieve technologieën en AGI. Als een futurist, is hij toegewijd aan het onderzoeken van hoe deze innovaties onze wereld zullen vormgeven. Bovendien is hij de oprichter van Securities.io, een platform dat zich richt op investeren in cutting-edge technologieën die de toekomst opnieuw definiëren en hele sectoren herschappen.