부본 Cranium AI의 CEO 겸 공동 창립자 Jonathan Dambrot - 인터뷰 시리즈 - Unite.AI
Rescale 미팅 예약

인터뷰

Cranium AI CEO 겸 공동 창립자 Jonathan Dambrot – 인터뷰 시리즈

mm
업데이트 on

조나단 댐브로트(Jonathan Dambrot)는 두개골 AI, 사이버 보안 및 데이터 과학 팀이 AI가 시스템, 데이터 또는 서비스에 영향을 미치고 있음을 모든 곳에서 이해하도록 돕는 기업입니다.

Jonathan은 KPMG의 전 파트너이자 사이버 보안 업계 리더이자 선구자입니다. KPMG에 합류하기 전에는 3년 후반에 Insight Venture Partners에 매각되기 전에 Prevalent가 제2016자 위험 관리 부문에서 Gartner 및 Forrester 업계 리더가 되도록 이끌었습니다. 2019년에 Jonathan은 회사가 새로운 리더십 하에서 계속 성장하기를 바라면서 Prevalent CEO 역할을 전환했습니다. . 그는 여러 간행물에 인용되었으며 IT, 정보 보안 및 규정 준수의 추세에 대해 고객 그룹에 일상적으로 이야기합니다.

Cranium AI의 기원 이야기를 들려주실 수 있나요?

전 세계적으로 제2021자 보안 서비스를 선도하는 KPMG의 파트너였던 2023년 XNUMX월경에 Cranium에 대한 아이디어를 얻었습니다. 우리는 일부 대규모 고객을 위해 AI 기반 솔루션을 구축 및 제공하고 있었지만 적의 위협으로부터 고객을 보호하기 위해 아무것도 하지 않고 있음을 알게 되었습니다. 그래서 가장 큰 고객의 사이버 보안 책임자에게 같은 질문을 했고 돌아온 대답은 똑같이 끔찍했습니다. 많은 보안 팀은 데이터 과학자와 대화조차 한 적이 없었습니다. 그들은 기술과 관련하여 완전히 다른 언어를 사용했으며 궁극적으로 기업 전체에서 실행되는 AI에 대한 가시성이 전혀 없었습니다. 이 모든 것이 꾸준히 증가하는 규제 개발과 결합하여 AI에 보안을 제공할 수 있는 플랫폼을 구축하는 계기가 되었습니다. 우리는 KPMG Studio 인큐베이터와 협력하기 시작했고 대기업의 요구 사항을 충족하기 위한 개발을 안내할 디자인 파트너로 가장 큰 고객 중 일부를 영입했습니다. 올해 XNUMX월 신벤처스가 들어와 시드 펀딩을 완료했고, XNUMX월 KPMG에서 독립적으로 분사해 XNUMX년 XNUMX월 스텔스에서 나왔다.

Cranium AI 카드는 무엇이며 어떤 핵심 통찰력을 보여줍니까?

Cranium AI 카드를 사용하면 조직은 AI 모델의 신뢰성 및 규정 준수에 대한 정보를 고객 및 규제 기관과 효율적으로 수집 및 공유하고 공급업체의 AI 시스템 보안에 대한 가시성을 얻을 수 있습니다. 궁극적으로 우리는 보안 및 규정 준수 팀에 공급망에서 AI의 보안을 시각화 및 모니터링하고 자체 AI 시스템을 현재 및 향후 규정 준수 요구 사항 및 프레임워크에 맞추며 AI 시스템이 안전하다는 것을 쉽게 공유할 수 있는 기능을 제공하고자 합니다. 신뢰할 수 있습니다.

이 솔루션으로 해결되고 있는 AI에 대한 사람들의 신뢰 문제는 무엇입니까?

사람들은 일반적으로 자신이 사용하고 있는 AI의 배후에 무엇이 있는지 알고 싶어합니다. 특히 점점 더 많은 일상적인 워크플로우가 어떤 방식으로든 AI의 영향을 받고 있기 때문입니다. 우리는 고객이 "어떻게 관리되고 있습니까?", "데이터와 모델을 보호하기 위해 무엇을 하고 있습니까?", 이 정보는 검증되었습니까?”. AI 카드는 조직이 이러한 질문에 답하고 AI 시스템의 투명성과 신뢰성을 모두 입증할 수 있는 빠른 방법을 제공합니다.

2022년 XNUMX월 백악관 과학기술정책실(OSTP) AI 권리장전 청사진 발표, 책임 있는 AI 사용을 위한 구속력 없는 로드맵을 공유했습니다. 이 법안의 장단점에 대한 개인적인 견해를 말씀해 주시겠습니까?

백악관이 책임 있는 AI의 기본 원칙을 정의하는 첫 번째 단계를 밟은 것은 매우 중요하지만 AI 기반 결정에 대한 항소를 걱정하는 개인뿐만 아니라 조직에 지침을 제공하기에는 충분하지 않다고 생각합니다. 향후 규제 지침은 AI 시스템 제공자뿐만 아니라 사용자가 이 기술을 안전하고 안전한 방식으로 이해하고 활용할 수 있도록 해야 합니다. 궁극적으로 주요 이점은 AI 시스템이 더 안전하고 포괄적이며 투명하다는 것입니다. 그러나 조직이 향후 규제에 대비할 수 있는 위험 기반 프레임워크가 없으면 특히 투명성 및 설명 가능성 요구 사항을 충족하는 것이 기술적으로 불가능한 상황에서 혁신 속도가 느려질 가능성이 있습니다.

Cranium AI는 회사가 이 권리 장전을 준수하도록 어떻게 지원합니까?

Cranium Enterprise는 권리 장전의 첫 번째 핵심 원칙인 안전한 보안 시스템을 개발하고 제공하는 회사를 돕습니다. 또한 AI 카드는 AI 시스템이 실제로 어떻게 작동하고 어떤 데이터를 사용하는지에 대한 세부 정보를 공유할 수 있도록 하여 조직이 알림 및 설명의 원칙을 충족하도록 돕습니다.

무엇인가 NIST AI 위험 관리 프레임워크, 그리고 Cranium AI는 기업이 이 프레임워크에 대한 AI 규정 준수 의무를 달성하는 데 어떻게 도움이 됩니까?

NIST AI RMF는 조직이 AI와 관련된 개인, 조직 및 사회에 대한 위험을 더 잘 관리하기 위한 프레임워크입니다. AI에 대한 성공적인 위험 관리 프로그램의 결과를 요약하여 다른 프레임워크와 매우 유사한 구조를 따릅니다. 우리는 AI 카드를 프레임워크에 설명된 목표에 매핑하여 AI 시스템이 프레임워크와 어떻게 일치하는지 조직을 지원하고 엔터프라이즈 플랫폼이 이미 많은 이 정보를 수집하고 있으므로 일부 필드를 자동으로 채우고 유효성을 검사할 수 있습니다. .

XNUMXD덴탈의 EU AI 법 최근 역사상 가장 기념비적인 AI 법안 중 하나인데 왜 비 EU 기업이 이를 준수해야 합니까?

데이터 프라이버시에 대한 GDPR과 마찬가지로 AI 법은 글로벌 기업이 AI 시스템을 개발하고 운영하는 방식을 근본적으로 바꿀 것입니다. 유럽 ​​시민을 사용하거나 영향을 미치는 모든 AI 시스템은 회사의 관할권에 관계없이 요구 사항에 속하므로 EU 외부에 기반을 둔 조직은 여전히 ​​요구 사항에 주의를 기울이고 준수해야 합니다.

Cranium AI는 EU AI 법을 어떻게 준비하고 있습니까?

Cranium에서는 처음부터 AI 법의 개발을 추적해 왔으며 규정 준수 요구 사항을 충족하는 회사를 지원하기 위해 AI 카드 제품 제안의 디자인을 맞춤화했습니다. 우리는 AI 법에 대한 초기 인식과 그것이 수년에 걸쳐 어떻게 발전했는지를 감안할 때 좋은 출발점을 가지고 있다고 생각합니다.

왜해야 책임있는 AI 기업의 우선순위가 됩니까?

AI가 모든 비즈니스 프로세스와 기능에 내장되는 속도는 책임감 있게 수행하지 않으면 상황이 빠르게 통제 불능이 될 수 있음을 의미합니다. AI 혁명 초기에 책임감 있는 AI의 우선 순위를 지정하면 기업이 보다 효과적으로 확장하고 나중에 주요 장애물 및 규정 준수 문제에 부딪히지 않을 수 있습니다.

Cranium AI의 미래에 대한 비전은 무엇입니까?

우리는 Cranium이 안전하고 신뢰할 수 있는 AI의 진정한 범주 왕이 되는 것을 봅니다. 윤리적 사용 및 설명 가능성과 같은 복잡한 문제와 같은 모든 문제를 해결할 수는 없지만 책임 있는 AI의 다른 영역의 리더와 협력하여 고객이 책임 있는 AI의 모든 영역을 간단하게 다룰 수 있도록 생태계를 추진하고자 합니다. 또한 혁신적인 제너레이티브 AI 솔루션 개발자와 협력하여 이러한 기능의 보안과 신뢰를 지원하고자 합니다. 우리는 Cranium을 통해 전 세계 기업이 안전하고 신뢰할 수 있는 방식으로 혁신을 계속할 수 있기를 바랍니다.

훌륭한 인터뷰 감사합니다. 자세한 내용을 알고 싶은 독자는 방문하세요. 두개골 AI.

unite.AI의 창립 파트너이자 포브스 기술 위원회, 앙투안은 미래파 예술가 AI와 로봇공학의 미래에 열정을 갖고 있는 사람입니다.

그는 또한 증권.io, 파괴적인 기술에 대한 투자에 초점을 맞춘 웹사이트입니다.