Connect with us

Rob Feldman, EnterpriseDB의 Chief Legal Officer – 인터뷰 시리즈

인터뷰

Rob Feldman, EnterpriseDB의 Chief Legal Officer – 인터뷰 시리즈

mm

Rob Feldman, Chief Legal Officer는 EnterpriseDB의 전 세계적인 법적 및 컴플라이언스 기능을 책임지고 있습니다. 경험豊富한 임원 및 변호사로서, 그는 성장하는 기술 회사들을 동적 비즈니스 및 규제 환경에서 지원하기 위해 고성과 법률 팀을 구축합니다. 최근에 그는 2022년 1,600억 달러 이상의 개인 매각 거래를 포함하여 Citrix Systems, Inc.의 일반 고문으로 45명의 법률 팀을 이끌었습니다. Citrix 이전에는 그는 10년 이상 私法에서 기술 회사 소송을 담당하여 증권 사기 방어, 지적 재산권 분쟁 및 정부 및 내부 조사에 집중했습니다. Rob은 또한 UN 글로벌 콤팩트 법률위원회에서 글로벌 규제 환경에 대한 전략적 지침을 제공하여 기업이 변革적이고 장기적인 영향을 미치도록 도와줍니다.

EnterpriseDB는 개방형 소스 PostgreSQL를 기반으로 하는 엔터프라이즈급 데이터베이스 솔루션을 제공하는 소프트웨어 회사로, 조직이 더 나은 성능, 보안 및 신뢰성을 갖춘 임무 임계 부하를 실행하도록 도와줍니다. 2004년에 설립된 EnterpriseDB는 클라우드 및 온프레미스 플랫폼, 글로벌 지원, 오라클 호환 도구를 제공하며 점점 더 Postgres AI를 통해 AI 준비 및 하이브리드 데이터 플랫폼에 초점을 맞추고 있습니다.

기업의 장기적인 영향을 미치는 AI 및 데이터의 세계는 기업이 lâu 전에 지녀야 할 책임, 절제, 및 책임의 명확성과 같은 핵심 원칙에依然합니다.

과거에는 이러한 원칙이 사람들과 주로 불활성 시스템, 대시보드, 보고서, 자동화 도구에 적용되었으며, 이러한 도구는 스스로 행동을 시작하지 않았습니다. 에이전트 AI는 독립적으로 행동할 수 있는 시스템을 도입하여 시간이 지남에 따라 적응하고 점점 더 인간과 다른 에이전트와 상호 작용할 수 있습니다.

조직이 강력한 거버넌스 및 제어 규율을 갖지 못하면 이러한 환경에서 어려움을 겪을 것입니다. 에이전트 AI는 새로운 책임 문제를 창조하는 것이 아니라 기존의 문제를 노출시킵니다. 건전한 기초를 갖춘 기업들에게 이 변화는 실제로 이미 따르고 있는 관행을 강화합니다. 이를 “디지털 리싱”이라고 합니다. 다른 기업들에게는 실질적인 가드레일을 설정하기 전에 에이전트 AI를 대규모로 운영하는 신호입니다.

약 13%의 기업만이 에이전트 규모에 성공적으로 도달했습니다. 그들은 다른 모든 기업보다 2배의 에이전트를 수행하며 5배의 ROI를 얻습니다. 그러나 AI 시스템이 갖는 자율성이 높을수록 조직은 책임을 빨리 직면해야 합니다. AI 에이전트가 청구를 라우팅하거나 돈을 이동하거나 민감한 데이터를 잘못 처리할 때, 책임은 환경을 정의하고 권한을 설정하고 시스템이 갖는 자유의 정도를 결정한 기업을 따릅니다.

이것이 왜 기업이 에이전트 AI 사용 사례에 대한 명확한 감독을 가져야 하며, 왜 조직이 가드레일 및 거버넌스 프로그램에 집중해야 하는지입니다. 개 소유와 디지털 리싱의 유사점은 유용합니다. 개는一定程度의 자율성을 갖지만, 때때로 예측할 수 없지만, 법적 인물은 아닙니다. 이러한 조합, 즉 자율성 без 인격은 오늘날의 에이전트 AI 시스템과 유사하며, 소유자는 감독 및 거버넌스 없이 나쁨 결과에 대한 책임을 지게 됩니다.

기업은 배포 전에 법적 및 운영 관점에서 지원 AI와 에이전트 AI를 어떻게 구별해야 합니까?

간단히 말해서, 구별은 권한에 달려 있습니다. 지원 AI는 인간의 의사 결정에 도움을 주며, 에이전트 AI는 행동을 시작하고 의사 결정을 실행합니다. 두 가지 시스템 모두 워크플로우와 행동에 영향을 미칠 수 있습니다(예: 고객 서비스 또는 운영 우선순위). 그러나 에이전트 시스템만이 독립적으로 행동할 수 있습니다.

시스템이 워크플로우를 트리거하거나 결과를 승인하거나 시스템 상태를 수정하거나 실시간 인간 승인 없이 행동할 수 있다면, 그것을 에이전트로 처리해야 합니다. 이러한 결정은 배포 전에 이루어져야 합니다. 왜냐하면 에이전트에게 권한이 부여되면 법적 및 운영 책임도 함께 이동합니다. 조직은 이 구별을 명확히 이해해야 합니다. 그렇지 않으면 의도하지 않게 의사 결정 권한을 위임하고, 그와 함께 책임을 지게 될 수 있습니다.

수립된 법적 교리, 즉 부주의한 위임 및 상위 책임은 실제로 자율적 AI 시스템에 적용될 수 있으며, 이러한 프레임워크는 어디에서 시작하여崩壊하는가?

그들은 많은 사람이 가정하는 것보다 더 직접적으로 적용됩니다. 이러한 교리는 권한이 위임되고 피해가 발생하는 상황을 해결하기 위해 존재합니다. 이는 에이전트 AI가 도입하는 잠재적인 도전 중 하나입니다.

문제는 법적 교리와는 관련이 없으며, 조직이 자율적 AI를 배포할 때 가정하는 책임을 이해하는지 여부입니다. 또한 이러한 시스템을 관리하기 위한 필요성입니다.

조직이 범위, 권한 및 감독을 정의하지 못하면 법적 책임을 생성합니다. 문제는 법률이 에이전트 AI를 처리할 수 없다는 것이 아니라, 기업이 시스템이 무엇을 위해 승인되었는지 또는 어떻게 관리되어야 하는지 명확히 정의하지 못했다는 것입니다.

CIO 및 법률 팀은 오늘날 생산 환경에서 AI 워크플로우가 계속해서 학습하고 적응함에 따라 책임을 정의하고 완화하기 위한 실질적인 단계는 무엇인가?

첫 번째 단계는 AI 및 데이터에 대한 주권을 임무 임계로 취급하는 것입니다. 조직은 완전히 관찰하거나 관리할 수 없는 환경에 분산된 AI 시스템 및 데이터를 의미fully 관리할 수 없습니다. 에이전트 AI를 대규모로 성공적으로 사용하는 13%의 기업은 이 기초에서 시작합니다.

실제로 이는 데이터 액세스를 제한하고, 에이전트가 독립적으로 수행할 수 있는 작업을 명확히 정의하며, 고영향력 있는 결정에 대한 인간 감독을 두는 것을 의미합니다. 또한 로깅 및 추적 가능성이 필요하므로 동작을 검토할 수 있습니다. 이러한 조치를 조기에 채택하는 조직은 법적 노출과 운영 마찰을 줄일 것입니다.

기업은 정책, 기술적 통제 또는 계약적 안전 장치를 통해 에이전트 AI를 어떻게 통제 또는 관리해야 하며, 예기치 않은 피해의 위험을 줄이기 위해?

시작점은 주권입니다. 기업은 AI 시스템, 데이터 및 실행 컨텍스트가 관찰 가능하고 규모에 따라 시행 가능한 환경을 필요로 합니다. 거버넌스는 정책만으로頼할 수 없습니다. 정책은 기대를 설정하지만, 기술적 통제는 시스템이 실제로 무엇을 할 수 있는지, 데이터가 휴식 상태 또는 동작 중인지, 모델이 어떻게 작동하도록 허용하는지 결정합니다.

일부 에이전트는 생산 액세스가 없는 펜스 환경에 속합니다. 다른 에이전트는 제한된 권한 및 승인 임계값으로 작동할 수 있습니다. 완전히 자율적인 에이전트는 드물고 주의 깊게 감독되어야 합니다. 계약은 책임을 명확히 할 수 있지만, 내부 통제 및 책임의 필요성을 대체하지는 않습니다.

기업이 제어하는 또는 주권 AI 환경으로의 전환은 AI 에이전트가 재정적 또는 운영적 피해를 입힐 때 궁극적으로 책임을 지는 사람을 변경합니까?

그것은 책임을 지는 사람을 변경하지 않습니다. 그것은 책임을 더 명확하게 만들고, 많은 방면에서 위험을 줄입니다. 기업이 데이터, 인프라 및 실행 컨텍스트를 제어할 때, 제3자 손에 있는 데이터 및 툴링으로 인한 변수를 제거합니다.

데이터 및 AI 툴링에 대한 제어는 강점입니다. 주권은 조직이 책임적으로 위험을 관리하기 위해 필요한 가시성 및 권한을 제공합니다. 이러한 제어가 없으면 기업은 위험 프로파일을 확장합니다.

자율적 AI 애플리케이션을 실행할 때 투명성 및 감사 가능성이 법적 노출을 줄이는 데 어떤 역할을 합니까?

그것은 기초적입니다. 감사 가능성은 자율적 시스템을 방어 가능한 시스템으로 만듭니다.

사고가 발생하면, 규제 기관 및 법원은 실제적인 질문을 합니다: 시스템이 무엇을 알고 있었는지, 무엇을 승인했는지, 왜 행동했는지. 감사 가능성을 입증할 수 있는 기업은 훨씬 더 강한 위치에 있습니다. 그들의 상대방과 비교하여 빈손으로 나오는 사람들보다.

연방 AI 지침이 계속해서 진화함에 따라, 기업은 AI 책임에 관련된 差異 있는 州 級 法的 의무를 준비하기 위해 어떻게 해야 합니까?

기업은 AI를 사용하여 책임을 지게 하는 자세한 규칙을 내리는 규제 기관을 기다릴 수 없습니다. 기존의 州 및 연방 법률은 우리가 AI를 책임 있게 사용하고,重大한 책임 사고를 피하기 위해 필요한 95%의 명확성을 제공합니다.

이 명확성에는 제품 책임 기준을 충족하는 시스템을 설계하는 것이 포함되며, 이는 필수적으로 책임 있는 AI 능력 개발, 출시 전 테스트, 투명성 및 위험 공개, 출시 후 감사, 인간 감독, AI 능력 사용자 교육 등을 포함합니다. 이러한 기본적인 단계는 특정 규제 결과를 예측하는 것보다 더 중요합니다.

에이전트 AI 시스템을 채택하기 전에 기술 구매자는 에이전트, 감독, 책임에 대해 공급업체에게 어떤 질문을 해야 합니까?

에이전트 AI의 경우, 궁극적으로 책임은 에이전트의 자율성을 승인하는 당사자에게 있습니다. 따라서 네 가지 주요 질문을 해결해야 합니다:

  1. 誰が 생산 환경에서 시스템을 제어합니까?
  2. 권한은 어떻게 테스트되고 시행되는가?
  3. 학습은 어떻게 제한되는가?
  4. 何か 잘못된 경우 감사 증거는 무엇인가?

공급업체가 명확한 답변을 제공할 수 없으면, 기업은 주의하여 진행해야 합니다. 개의 유사점으로 돌아가면, 번식가는 중요하지만,何か 잘못된 경우, 책임은 주인에게 있을 수 있습니다.

偉大한 인터뷰에 감사드립니다. 더 많은 정보를 원하는 독자는 EnterpriseDB를 방문할 수 있습니다.

앙투안은 Unite.AI의 비전있는 리더이자 공동 창립자로서, AI와 로봇공학의 미래를 형성하고 촉진하는 데 대한 불변의 열정에 의해 추동됩니다. 연쇄적인 기업가로서, 그는 AI가 사회에 대한 전기와 같은 파괴력을 가질 것이라고 믿으며, 종종 파괴적인 기술과 AGI의 잠재력에 대해 열광합니다.

作为 futurist, 그는 이러한 혁신이 우리의 세계를 어떻게 형성할지 탐구하는 데 전념하고 있습니다. 또한, 그는 Securities.io의 창립자로서, 미래를 재정의하고 전체 부문을 재형성하는 최첨단 기술에 투자하는 플랫폼입니다.