Connect with us

David Maher, Intertrust์˜ CTO – ์ธํ„ฐ๋ทฐ ์‹œ๋ฆฌ์ฆˆ

์ธํ„ฐ๋ทฐ

David Maher, Intertrust์˜ CTO – ์ธํ„ฐ๋ทฐ ์‹œ๋ฆฌ์ฆˆ

mm

David MaherIntertrust의 최고 기술 책임자이자 집행 이사로 재직하고 있습니다. 30년 이상의 신뢰할 수 있는 분산 시스템, 보안 시스템, 위험 관리 분야의 경험을 가지고 있으며, Dave는 연구 개발 노력을 이끌었고 회사 자회사에서 주요 리더십 직책을 맡았습니다. 그는 디지털 미디어 및 IoT를 위한 인증 기관인 Seacert Corporation의 전 회장 및 소프트웨어 자체 방어 시스템 개발업체인 whiteCryption Corporation의 사장으로 재직했습니다. 또한 그는 세계에서 유일한 독립적인 디지털 권한 관리 생태계를 관리하는 Marlin Trust Management Organization (MTMO)의 공동 의장을 역임했습니다.

Intertrust는 분산 운영 체제가 개방형 네트워크에서 데이터 및 계산을 보안하고 관리할 수 있도록 하는 혁신을 개발했으며, 이는 신뢰할 수 있는 분산 컴퓨팅에 대한 기본 특허로 이어졌습니다.

원래 연구에 뿌리를 둔 Intertrust는 장치 및 데이터 운영을 통합하는 신뢰할 수 있는 컴퓨팅 서비스를 제공하는 제품 중심 회사로 발전했습니다. 특히 IoT 및 AI를 위한 서비스입니다. 그들의 시장에는 미디어 배포, 장치 身分/인증, 디지털 에너지 관리, 분석, 클라우드 저장소 보안 등이 포함됩니다.

AI 신뢰 격차를 어떻게 메울 수 있으며, AI의 안전성 및 신뢰성에 대한 대중의 증가하는 우려를 어떻게 해결할 수 있습니까?

투명성이 증가하면 AI 메커니즘의 일부인 기능을 소비자와 기술자 모두가 이해할 수 있도록 도와줄 것입니다. 이러한 기능에는 AI 모델의 훈련 방법, 가드레일의 존재, 모델 개발에 적용된 정책, 특정 메커니즘의 안전성 및 보안을 위한 기타 보증 등이 포함됩니다. 더 큰 투명성을 통해 실제 위험 및 문제를 해결하고 비이성적 страх 및 추측에 방해받지 않을 수 있습니다.

메타데이터 인증은 AI 출력의 신뢰성을 보장하는 데 어떤 역할을 합니까?

메타데이터 인증은 AI 모델 또는 기타 메커니즘에 대한 보증이 신뢰할 수 있음을 확신시켜줍니다. AI 모델 카드는 특정 목적을 위한 AI 메커니즘(모델, 에이전트 등)의 사용을 평가하는 데 도움이 될 수 있는 메타데이터의 한 예입니다. 우리는 모델 카드의 명확성 및 완전성에 대한 표준을 정립해야 하며, 성능, 편향, 훈련 데이터의 속성 등에 대한 양적 측정 및 인증된 주장을 위한 표준을 정립해야 합니다.

조직은 대규모 언어 모델(LLM)에서 AI 편향 및 환각의 위험을 어떻게 완화할 수 있습니까?

레드 팀은 이러한 및 기타 위험을 모델 개발 및 미리 출시하는 동안 해결하는 일반적인 접근 방식입니다. 원래 보안 시스템을 평가하는 데 사용된 이 접근 방식은 이제 AI 기반 시스템에서 표준이 되고 있습니다. 이것은 초기 개발부터 필드 배포까지 시스템의 전체 수명 주기를 포함하는 위험 관리를 위한 시스템 접근 방식입니다. 특히 모델에 사용된 훈련 데이터의 분류 및 인증이 중요합니다.

회사는 AI 시스템에서 투명성을 어떻게 만들 수 있으며 “블랙 박스” 문제와 관련된 위험을 어떻게 줄일 수 있습니까?

회사가 모델을 사용하는 방법과 내부 사용 또는 고객 사용에 대한 잠재적 책임을 이해합니다. 그런 다음 배포할 AI 메커니즘의 계보를 포함하여 모델 카드의 주장, 레드 팀 시도의 결과, 회사의 특정 사용에 대한 차이 분석, 공식적으로 평가된 내용, 다른 사람들의 경험 등을 이해합니다. 현실적인 환경에서 포괄적인 테스트 계획을 사용한 내부 테스트는 절대적으로 필요합니다. 이 나스cent 영역에서 최선의 관행은 발전하고 있으므로 이를 따라가야 합니다.

AI 시스템은 어떻게 윤리 지침을 고려하여 설계할 수 있으며, 다양한 산업에서 이를 달성하는 데 어떤 어려움이 있습니까?

이것은 연구 영역이며, 많은 사람들이 윤리와 현재의 AI 버전에 대해 불일치가 있다고 주장합니다. 예를 들어, 인간이 이해하는 단순한 규칙(예: “사기하지 마세요”)을 보장하기가 어렵습니다. 그러나 상호 작용 및 목표 기반 학습의 목표 충돌에 대한 주의 깊은 분석, 의심스러운 데이터 및 허위 정보의 제외, 출력 필터를 사용하여 가드레일을 적용하고 윤리 원칙의 위반(예: 출력 내용에서 폭력 사용을 옹호 또는 동의하는 것)을 테스트하는 규칙을 구축하는 것을 고려해야 합니다. 마찬가지로 편향에 대한 엄격한 테스트는 모델을 윤리 원칙과 더 잘 일치시킬 수 있습니다. 다시 말하지만, 이것은 개념적으로 많이 될 수 있으므로 주어진 접근 방식의 효과를 테스트하는 데 주의를 기울여야 합니다. AI 메커니즘은 인간이 하는 것과 같은 방식으로 지침을 “이해”하지 않습니다.

미래에 AI가 직면하는 주요 위험 및 도전은 무엇이며, 특히 IoT 시스템과 더 많이 통합됨에 따라 어떻게 되는가요?

우리는 중요한 인프라 프로세스를 최적화하는 시스템을 자동화하기 위해 AI를 사용하고 싶습니다. 예를 들어, 가상 발전소는 에너지 생산, 저장, 사용의 수천 개의 요소를 조정하여 에너지 분포 및 사용을 최적화할 수 있다는 것을 알고 있습니다. 이것은 대규모 자동화 및 AI를 사용하여 분산决策를 지원하는 것이 실제로 가능합니다. 시스템에는 상반되는 최적화 목표(예: 소비자와 공급자 모두에게 이익)를 가진 에이전트가 포함될 것입니다. AI 안전성 및 보안은 이러한 시스템의 대규모 배포에서 매우 중요합니다.

AI 시스템에서 엔티티를 안전하게 식별하고 인증하는 데 필요한 인프라는 무엇입니까?

AI 시스템과 그 배포에 대한 모든 측면을 평가하는 엔티티가 신뢰할 수 있고 인증된 주장을 게시할 수 있는 강력하고 효율적인 인프라가 필요합니다. AI 시스템, 그들의 계보, 사용 가능한 훈련 데이터, 센서 데이터의 출처, 보안에 영향을 미치는 사건 및 기타 사항에 대한 주장과断言을 효율적으로 검증할 수 있어야 합니다.

Intertrust에서 작업 중인 내용에 대한 일부 통찰력을 공유할 수 있습니까? 그리고 그것이 우리가 논의한 내용과 어떻게 관련이 있습니까?

우리는 이전 질문에서 필요한 신뢰 관리 인프라를 제공할 수 있는 기술을 연구하고 설계하고 있습니다. 우리는 특히 IoT 시스템에서 발생하는 확장성, 대기 시간, 보안 및 상호 운용성 문제를 해결하고 있습니다.

Intertrust의 PKI(공개 키 인프라) 서비스는 어떻게 IoT 장치를 보안하며, 대규모 배포에 대해 확장 가능합니까?

우리의 PKI는 장치 및 디지털 콘텐츠의 거버넌스를 포함하는 시스템에 대한 신뢰 관리를 위해 특별히 설계되었습니다. 우리는 규정 준수를 보장하는 수십억 개의 암호화 키와 인증서를 배포했습니다. 현재 연구는 대규모 산업 자동화 및 중요한 세계 인프라에 필요한 규모 및 보증을 해결하고 있습니다. “제로 트러스트” 배포 및 장치 및 데이터 인증에 대한 최선의 관행도 포함됩니다.

NIST의 AI 이니셔티브에 참여한 이유는 무엇이며, 신뢰할 수 있고 안전한 AI 표준을 개발하는 데 어떻게 기여합니까?

NIST는 보안 시스템에서 표준 및 최선의 관행을 개발하고 성공적으로 적용하는 데 엄청난 경험과 성공을 가지고 있습니다. Intertrust의 미국 AISIC의 주요 조사자로서,私は重要な 표준 및 신뢰 관리 시스템을 포함하는 최선의 관행을 옹호할 수 있습니다.過去の経験から,私はNIST가 창의성, 진보, 산업 협력을 촉진하는 접근 방식을 특히 감謝합니다. 이러한 표준은 유익한 기술의 채택을 촉진하는 동시에 사회가 직면하는 종류의 위험을 해결하는 데 도움이 될 수 있습니다.

훌륭한 인터뷰에 감사합니다. 더 많은 것을 배우고 싶은 독자는 Intertrust를 방문해야 합니다.

์•™ํˆฌ์•ˆ์€ Unite.AI์˜ ๋น„์ „์žˆ๋Š” ๋ฆฌ๋”์ด์ž ๊ณต๋™ ์ฐฝ๋ฆฝ์ž๋กœ์„œ, AI์™€ ๋กœ๋ด‡๊ณตํ•™์˜ ๋ฏธ๋ž˜๋ฅผ ํ˜•์„ฑํ•˜๊ณ  ์ด‰์ง„ํ•˜๋Š” ๋ฐ ๋Œ€ํ•œ ๋ถˆ๋ณ€์˜ ์—ด์ •์— ์˜ํ•ด ์ถ”๋™๋ฉ๋‹ˆ๋‹ค. ์—ฐ์‡„์ ์ธ ๊ธฐ์—…๊ฐ€๋กœ์„œ, ๊ทธ๋Š” AI๊ฐ€ ์‚ฌํšŒ์— ๋Œ€ํ•œ ์ „๊ธฐ์™€ ๊ฐ™์€ ํŒŒ๊ดด๋ ฅ์„ ๊ฐ€์งˆ ๊ฒƒ์ด๋ผ๊ณ  ๋ฏฟ์œผ๋ฉฐ, ์ข…์ข… ํŒŒ๊ดด์ ์ธ ๊ธฐ์ˆ ๊ณผ AGI์˜ ์ž ์žฌ๋ ฅ์— ๋Œ€ํ•ด ์—ด๊ด‘ํ•ฉ๋‹ˆ๋‹ค.

ไฝœไธบ futurist, ๊ทธ๋Š” ์ด๋Ÿฌํ•œ ํ˜์‹ ์ด ์šฐ๋ฆฌ์˜ ์„ธ๊ณ„๋ฅผ ์–ด๋–ป๊ฒŒ ํ˜•์„ฑํ• ์ง€ ํƒ๊ตฌํ•˜๋Š” ๋ฐ ์ „๋…ํ•˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ๋˜ํ•œ, ๊ทธ๋Š” Securities.io์˜ ์ฐฝ๋ฆฝ์ž๋กœ์„œ, ๋ฏธ๋ž˜๋ฅผ ์žฌ์ •์˜ํ•˜๊ณ  ์ „์ฒด ๋ถ€๋ฌธ์„ ์žฌํ˜•์„ฑํ•˜๋Š” ์ตœ์ฒจ๋‹จ ๊ธฐ์ˆ ์— ํˆฌ์žํ•˜๋Š” ํ”Œ๋žซํผ์ž…๋‹ˆ๋‹ค.