stub Jonathan Dambrot, CEO og medstifter af Cranium AI - Interview Series - Unite.AI
Følg os

Interviews

Jonathan Dambrot, CEO og medstifter af Cranium AI – Interview Series

mm
Opdateret on

Jonathan Dambrot er administrerende direktør og medstifter af Kranium AI, en virksomhed, der hjælper cybersikkerheds- og datavidenskabsteams med at forstå overalt, at AI påvirker deres systemer, data eller tjenester.

Jonathan er tidligere partner hos KPMG, leder af cybersikkerhedsbranchen og visionær. Før KPMG førte han Prevalent til at blive en Gartner og Forrester brancheleder inden for 3. parts risikostyring inden salget til Insight Venture Partners i slutningen af ​​2016. I 2019 skiftede Jonathan rollen som Prevalent CEO, da virksomheden ser ud til at fortsætte sin vækst under nyt lederskab. . Han er blevet citeret i en række publikationer og taler rutinemæssigt til grupper af kunder om tendenser inden for it, informationssikkerhed og compliance.

Kunne du dele tilblivelseshistorien bag Cranium AI?

Jeg fik ideen til Cranium omkring juni 2021, da jeg var partner hos KPMG, der førte tredjepartssikkerhedstjenester globalt. Vi byggede og leverede AI-drevne løsninger til nogle af vores største kunder, og jeg fandt ud af, at vi ikke gjorde noget for at sikre dem mod modstridende trusler. Så jeg stillede det samme spørgsmål til cybersikkerhedslederne hos vores største kunder, og de svar, jeg fik tilbage, var lige så forfærdelige. Mange af sikkerhedsteamene havde aldrig engang talt med dataforskerne – de talte helt andre sprog, når det kom til teknologi og havde i sidste ende ingen synlighed i den AI, der kørte på tværs af virksomheden. Alt dette kombineret med den støt voksende udvikling af regler var udløseren til at bygge en platform, der kunne give sikkerhed til AI. Vi begyndte at arbejde med KPMG Studio-inkubatoren og hentede nogle af vores største kunder som designpartnere for at guide udviklingen for at imødekomme disse store virksomheders behov. I januar i år kom Syn Ventures ind for at fuldføre Seed-finansieringen, og vi sprang ud uafhængigt af KPMG i marts og kom ud af stealth i april 2023.

Hvad er Cranium AI-kortet, og hvilke nøgleindsigter afslører det?

Cranium AI-kortet giver organisationer mulighed for effektivt at indsamle og dele information om deres AI-modellers troværdighed og overensstemmelse med både kunder og regulatorer og få synlighed i sikkerheden af ​​deres leverandørers AI-systemer. I sidste ende søger vi at give sikkerheds- og overholdelsesteams muligheden for at visualisere og overvåge sikkerheden af ​​AI i deres forsyningskæde, tilpasse deres egne AI-systemer med nuværende og kommende overholdelseskrav og rammer og nemt dele, at deres AI-systemer er sikre og troværdig.

Hvad er nogle af de tillidsproblemer, som folk har med AI, som bliver løst med denne løsning?

Folk vil generelt gerne vide, hvad der ligger bag den AI, de bruger, især da flere og flere af deres daglige arbejdsgange påvirkes på en eller anden måde, form eller form af AI. Vi søger at give vores kunder mulighed for at besvare spørgsmål, som de snart vil modtage fra deres egne kunder, såsom "Hvordan styres dette?", "Hvad bliver der gjort for at sikre dataene og modellerne?", og "Har det" denne information blevet valideret?”. AI-kort giver organisationer en hurtig måde at løse disse spørgsmål og til at demonstrere både gennemsigtigheden og troværdigheden af ​​deres AI-systemer.

I oktober 2022, Det Hvide Hus Office of Science and Technology Policy (OSTP) udgivet en Blueprint for en AI Bill of Rights, som delte en ikke-bindende køreplan for ansvarlig brug af kunstig intelligens. Kan du diskutere dine personlige holdninger til fordele og ulemper ved dette lovforslag?

Selvom det er utrolig vigtigt, at Det Hvide Hus tog dette første skridt i at definere de vejledende principper for ansvarlig AI, mener vi ikke, at det gik langt nok til at give vejledning til organisationer og ikke kun enkeltpersoner, der er bekymrede for at appellere en AI-baseret beslutning. Fremtidig reguleringsvejledning bør ikke kun være for udbydere af AI-systemer, men også for brugere, der skal kunne forstå og udnytte denne teknologi på en sikker og sikker måde. I sidste ende er den største fordel, at AI-systemer bliver sikrere, mere inkluderende og mere gennemsigtige. Men uden en risikobaseret ramme for organisationer til at forberede sig på fremtidig regulering, er der potentiale for at bremse innovationstempoet, især under omstændigheder, hvor det er teknisk umuligt at opfylde kravene til gennemsigtighed og forklaring.

Hvordan hjælper Cranium AI virksomheder med at overholde denne Bill of Rights?

Cranium Enterprise hjælper virksomheder med at udvikle og levere sikre og sikre systemer, hvilket er det første nøgleprincip i Bill of Rights. Derudover hjælper AI-kortet organisationer med at opfylde princippet om meddelelse og forklaring ved at give dem mulighed for at dele detaljer om, hvordan deres AI-systemer rent faktisk fungerer, og hvilke data de bruger.

Hvad er det NIST AI Risk Management Framework, og hvordan vil Cranium AI hjælpe virksomheder med at opfylde deres AI-overholdelsesforpligtelser for denne ramme?

NIST AI RMF er en ramme for organisationer til bedre at håndtere risici for enkeltpersoner, organisationer og samfund forbundet med AI. Det følger en meget lignende struktur som deres andre rammer ved at skitsere resultaterne af et vellykket risikostyringsprogram for AI. Vi har kortlagt vores AI-kort til de mål, der er skitseret i rammeværket for at støtte organisationer i at spore, hvordan deres AI-systemer stemmer overens med rammeværket, og eftersom vores virksomhedsplatform allerede indsamler en masse af disse oplysninger, kan vi automatisk udfylde og validere nogle af felterne .

EU's AI-lov er en af ​​de mere monumentale AI-lovgivninger, som vi har set i nyere historie, hvorfor skulle ikke-EU-virksomheder overholde den?

I lighed med GDPR for databeskyttelse, vil AI-loven fundamentalt ændre den måde, globale virksomheder udvikler og driver deres AI-systemer på. Organisationer baseret uden for EU skal stadig være opmærksomme på og overholde kravene, da alle AI-systemer, der bruger eller påvirker europæiske borgere, vil falde ind under kravene, uanset virksomhedens jurisdiktion.

Hvordan forbereder Cranium AI sig til EU's AI-lov?

Hos Cranium har vi fulgt udviklingen af ​​AI-loven siden begyndelsen og har skræddersyet designet af vores AI Card-produktudbud for at støtte virksomheder i at opfylde overholdelseskravene. Vi føler, at vi har et godt forspring i betragtning af vores meget tidlige bevidsthed om AI-loven, og hvordan den har udviklet sig gennem årene.

Hvorfor skulle ansvarlig AI blive en prioritet for virksomhederne?

Den hastighed, hvormed AI bliver indlejret i enhver forretningsproces og funktion betyder, at tingene hurtigt kan komme ud af kontrol, hvis det ikke gøres ansvarligt. At prioritere ansvarlig AI nu i begyndelsen af ​​AI-revolutionen vil gøre det muligt for virksomheder at skalere mere effektivt og ikke løbe ind i store vejspærringer og overholdelsesproblemer senere.

Hvad er din vision for fremtiden for Cranium AI?

Vi ser Cranium blive den sande kategorikonge for sikker og troværdig AI. Selvom vi ikke kan løse alt, såsom komplekse udfordringer som etisk brug og forklarlighed, ser vi efter at samarbejde med ledere inden for andre områder af ansvarlig AI for at drive et økosystem for at gøre det nemt for vores kunder at dække alle områder af ansvarlig AI. Vi ser også efter at arbejde med udviklerne af innovative generative AI-løsninger for at understøtte sikkerheden og tilliden til disse funktioner. Vi ønsker, at Cranium skal gøre det muligt for virksomheder over hele kloden at fortsætte med at innovere på en sikker og pålidelig måde.

Tak for det gode interview, læsere, der ønsker at lære mere, bør besøge Kranium AI.

En stiftende partner af unite.AI og et medlem af Forbes Technology Council, Antoine er en fremtidsforsker der brænder for fremtiden for kunstig intelligens og robotteknologi.

Han er også grundlægger af Værdipapirer.io, en hjemmeside, der fokuserer på at investere i disruptiv teknologi.