Connect with us

David Maher, CTO al Intertrust – Seria de interviuri

Interviuri

David Maher, CTO al Intertrust – Seria de interviuri

mm

David Maher servește ca Vicepreședinte Executiv și Director Tehnologic al Intertrust. Cu peste 30 de ani de experiență în sisteme distribuite de încredere, sisteme securizate și gestionare a riscurilor, Dave a condus eforturile de cercetare și dezvoltare și a deținut funcții de conducere cheie în filialele companiei. A fost președintele fost al Seacert Corporation, o Autoritate de Certificare pentru mass-media digitală și IoT, și Președintele whiteCryption Corporation, un dezvoltator de sisteme pentru autoapărare a software-ului. De asemenea, a servit ca copreședinte al Organizației de Gestionare a Încrederii Marlin (MTMO), care supraveghează singurul ecosistem independent de gestionare a drepturilor digitale din lume.

Intertrust a dezvoltat inovații care permit sistemelor de operare distribuite să securizeze și să gestioneze datele și calculele pe rețele deschise, rezultând într-un brevet de bază pentru calculul distribuit de încredere.

Inițial înrădăcinat în cercetare, Intertrust a evoluat într-o companie axată pe produse care oferă servicii de calcul de încredere care unifică operațiunile dispozitivelor și datelor, în special pentru IoT și AI. Piețele sale includ distribuția de mass-media, identificarea și autentificarea dispozitivelor, gestionarea energetică digitală, analizele și securitatea stocării în cloud.

Cum putem închide lacuna de încredere a IA și aborda preocupările publice crescânde despre siguranța și fiabilitatea IA?

Transparența este cea mai importantă calitate pe care o consider că va ajuta la abordarea preocupărilor crescânde despre IA. Transparența include caracteristici care ajută atât consumatorii, cât și tehnologii să înțeleagă mecanismele IA care fac parte din sistemele cu care interacționăm, ce fel de pedigree au: cum este antrenat un model IA, ce garduri există, ce politici au fost aplicate în dezvoltarea modelului, și ce alte garanții există pentru siguranța și securitatea unui mecanism dat. Cu o transparență mai mare, vom putea aborda riscuri și probleme reale și nu vom fi distrași atât de temeri și presupuneri iraționale.

Care este rolul autentificării metadatelor în asigurarea încrederii în ieșirile IA?

Autentificarea metadatelor ajută la creșterea încrederii noastre că asigurările despre un model IA sau alt mecanism sunt de încredere. O cartelă de model IA este un exemplu de colecție de metadate care poate ajuta la evaluarea utilizării unui mecanism IA (model, agent, etc.) pentru un scop specific. Trebuie să stabilim standarde pentru claritate și completețe pentru cartele de modele cu standarde pentru măsurători cantitative și aserțiuni autentificate despre performanță, bias, proprietăți ale datelor de antrenare, etc.

Cum pot organizațiile să atenueze riscul de bias și halucinații în modelele de limbaj mare (LLM)?

Red teaming este o abordare generală pentru abordarea acestor și altor riscuri în timpul dezvoltării și înainte de lansarea modelului. Inițial utilizată pentru evaluarea sistemelor securizate, abordarea devine acum standard pentru sistemele bazate pe IA. Este o abordare sistemică pentru gestionarea riscurilor care poate și ar trebui să includă întregul ciclu de viață al unui sistem, de la dezvoltarea inițială la implementarea în teren, acoperind întregul lanț de aprovizionare al dezvoltării. În special, este critică clasificarea și autentificarea datelor de antrenare utilizate pentru un model.

Ce pași pot lua companiile pentru a crea transparență în sistemele IA și a reduce riscurile asociate cu problema “cutiei negre”?

Înțelegeți cum va utiliza compania modelul și ce fel de obligații poate avea în implementare, fie pentru uz intern, fie pentru uzul clienților, direct sau indirect. Apoi, înțelegeți ce numesc eu pedigree-urile mecanismelor IA care urmează a fi implementate, inclusiv aserțiuni pe o cartelă de model, rezultate ale încercărilor de red team, analize diferențiale pe utilizarea specifică a companiei, ce a fost evaluat formal și ce au fost experiențele altor oameni. Testarea internă utilizând un plan de test cuprinzător într-un mediu realist este absolut necesară. Cele mai bune practici evoluează în acest domeniu nou, deci este important să ținem pasul.

Cum pot fi proiectate sistemele IA cu ghiduri etice în minte și ce sunt provocările în realizarea acestui lucru în diferite industrii?

Acesta este un domeniu de cercetare și mulți susțin că noțiunea de etică și versiunile actuale ale IA sunt incongruente, deoarece etica este conceptuală, iar mecanismele IA sunt în mare parte bazate pe date. De exemplu, reguli simple pe care oamenii le înțeleg, cum ar fi “nu înșela”, sunt dificil de asigurat. Cu toate acestea, o analiză atentă a interacțiunilor și conflictelor de obiective în învățarea bazată pe obiective, excluderea datelor dubioase și a informațiilor false, și construirea unor reguli care necesită utilizarea filtrelor de ieșire care impun garduri și testează încălcarea principiilor etice, cum ar fi promovarea sau simpatizarea utilizării violenței în conținutul de ieșire, ar trebui să fie luate în considerare. În mod similar, testarea riguroasă pentru bias poate ajuta la alinierea unui model mai mult cu principiile etice. Din nou, multe dintre acestea pot fi conceptuale, deci trebuie să se acorde atenție testării efectelor unei abordări date, deoarece mecanismul IA nu “înțelege” instrucțiunile în același mod în care o fac oamenii.

Ce sunt riscurile și provocările cheie cu care se confruntă IA în viitor, în special pe măsură ce se integrează mai mult cu sistemele IoT?

Vrem să utilizăm IA pentru a automatiza sistemele care optimizează procesele infrastructurii critice. De exemplu, știm că putem optimiza distribuția și utilizarea energiei utilizând centrale electrice virtuale, care coordonează mii de elemente de producere, stocare și utilizare a energiei. Acest lucru este practic doar cu o automatizare masivă și utilizarea IA pentru a ajuta la luarea deciziilor în timp real. Sistemele vor include agenți cu obiective de optimizare conflictuale (de exemplu, pentru beneficiul consumatorului versus furnizorul). Siguranța și securitatea IA vor fi critice în implementarea pe scară largă a unor astfel de sisteme.

Ce fel de infrastructură este necesară pentru a identifica și autentifica în mod securizat entitățile în sistemele IA?

Vom avea nevoie de o infrastructură robustă și eficientă prin care entitățile implicate în evaluarea tuturor aspectelor sistemelor IA și implementării lor pot publica afirmații autorizate și autentificate despre sistemele IA, pedigree-ul, datele de antrenare disponibile, proveniența datelor de senzori, incidente și evenimente de securitate, etc. Această infrastructură va trebui, de asemenea, să facă eficientă verificarea afirmațiilor și aserțiunilor utilizatorilor de sisteme care includ mecanisme IA și de către elementele din sistemele automate care iau decizii pe baza ieșirilor modelului IA și a optimizatorilor.

Ne puteți împărtăși câteva informații despre ceea ce lucrați la Intertrust și cum se încadrează în ceea ce am discutat?

Cercetăm și proiectăm tehnologie care poate furniza infrastructura de gestionare a încrederii necesară în întrebarea anterioară. Ne adresăm în mod specific problemelor de scară, latență, securitate și interoperabilitate care apar în sistemele IoT care includ componente IA.

Cum asigură serviciul PKI (Infrastructura Cheii Publice) al Intertrust dispozitivele IoT și ce îl face scalabil pentru implementări pe scară largă?

PKI-ul nostru a fost proiectat în mod special pentru gestionarea încrederii pentru sisteme care includ guvernanța dispozitivelor și conținutului digital. Am implementat miliarde de chei criptografice și certificate care asigură conformitatea. Cercetarea noastră actuală se adresează scării și garanțiilor pe care le necesită automatizarea industrială masivă și infrastructura critică mondială, inclusiv cele mai bune practici pentru implementări “zero-trust” și autentificarea dispozitivelor și datelor care pot gestiona trilioane de senzori și generatoare de evenimente.

Ce v-a motivat să vă alăturați inițiativelor NIST privind IA și cum contribuie implicarea dvs. la dezvoltarea standardelor de IA de încredere și siguranță?

NIST are o experiență și un succes remarcabile în dezvoltarea standardelor și a celor mai bune practici în sisteme securizate. Ca Investigator Principal pentru AISIC din partea Intertrust, pot pleda pentru standarde și practici importante în dezvoltarea sistemelor de gestionare a încrederii care includ mecanisme IA. Din experiența anterioară, apreciez în mod special abordarea pe care NIST o adoptă pentru a promova creativitatea, progresul și cooperarea industrială, în timp ce ajută la formularea și promovarea standardelor tehnice importante care promovează interoperabilitatea. Aceste standarde pot stimula adoptarea tehnologiilor benefice, în timp ce abordează tipurile de riscuri cu care se confruntă societatea.

Mulțumim pentru acest interviu minunat; cititorii care doresc să afle mai multe ar trebui să viziteze Intertrust.

Antoine este un lider vizionar și partener fondator al Unite.AI, condus de o pasiune neclintita pentru a da forma și a promova viitorul inteligenței artificiale și al roboticii. Un antreprenor serial, el crede că inteligența artificială va fi la fel de disruptivă pentru societate ca și electricitatea, și este adesea prins vorbind cu entuziasm despre potențialul tehnologiilor disruptive și al inteligenței artificiale generale.

Ca futurist, el este dedicat explorării modului în care aceste inovații vor modela lumea noastră. În plus, el este fondatorul Securities.io, o platformă axată pe investiții în tehnologii de ultimă generație care redefinesc viitorul și reshapă întregi sectoare.