Connect with us

๊ธฐ์—…์ด AI ๊ฑฐ๋ฒ„๋„Œ์Šค๋ฅผ ์œ„ํ•œ ๊ฐ€์น˜ ๊ธฐ๋ฐ˜ ์ ‘๊ทผ๋ฒ•์„ ๋”ฐ๋ผ์•ผ ํ•˜๋Š” ์ด์œ 

์‚ฌ์ƒ ๋ฆฌ๋”

๊ธฐ์—…์ด AI ๊ฑฐ๋ฒ„๋„Œ์Šค๋ฅผ ์œ„ํ•œ ๊ฐ€์น˜ ๊ธฐ๋ฐ˜ ์ ‘๊ทผ๋ฒ•์„ ๋”ฐ๋ผ์•ผ ํ•˜๋Š” ์ด์œ 

mm

2025년 9월, 유엔 회원국 모두가 국제 AI 거버넌스를 논의하기 위해 처음으로 모였으며, 많은 국가들이 2월 델리의 AI 임팩트 서밋에 다시 나타났습니다. 이 이벤트는 AI 거버넌스를 중심으로 두 개의 새로운 기구가 출범하는 결과를 낳았지만, 이는 최선의 경우 상징적인 성공에 불과했습니다.

유엔의 새로운 메커니즘은 합의를 확보하기 위해 설계되었으며, 군사적 AI 사용과 같은 논쟁의 여지가 있는 영역을 피하고, 자금 조달의 명확한 출처와 집행力的 부족을 나타냅니다. 이것은 경험 많은 관찰자에게는 놀라운 일이 아닙니다. 오늘날의 유엔은 빠르게 움직이거나 의결에 대한 보편적인 준수를 보장하는 능력이 부족하여 실제 변화를 가져오는 데 어려운 포럼입니다.

이것은 잘 확립된 패턴에 부합합니다. AI 규제에 대한 합의를 구축하기 위한 산재한 시도가 여러 년 동안 있었음에도 불구하고, 아직까지는 중요한 국제 협정이 없으며, 이는 개인 국가와 블록이 자신의 규칙을 개발하도록 강요하는 공백을 생성했습니다. 그러나 AI의 효과적인 거버넌스는 그것이 널리 채택되어, 공중으로부터 신뢰를 얻고, 지속적인 사회적 및 경제적 이익을 제공하는 방식으로 사용되기를 원한다면 매우 중요합니다.

Make Do and Mend

전 세계에 걸쳐 AI 시스템을 구축하고 운영하는 글로벌 기업들에게, 이러한 공통의 합의된 거버넌스 메커니즘의 부족은 문제입니다. 그들은 전 세계에 걸쳐 AI 시스템을 배포하고 싶지만, 두 개의 관할 구역이 동일한 규칙 세트를 준수하지 않습니다. 따라서 그들은 대신 시스템을 중심으로 제네릭 거버넌스 프레임워크를 생성한 다음 운영하는 각 국가에서 그것을 다시 지어야 합니다. 이렇게 하면 많은額의 추가 작업이 생성되고, AI 이니셔티브가 더 비용이 많이 들고 지연되며, 글로벌 기업이 규모의 경제를 실현하고 효과적인 도구를 모든 사용자와 공유하는 능력이 약화됩니다.

그러나 대안이 있습니다. 접근 방식을 간소화하려는 회사들에게는, 공통의 윤리적 원칙을 고려하여 AI 거버넌스 프레임워크를 구축하는 것이 최선의 옵션이 될 수 있습니다. 이렇게 하면 개인의 자유, 사생활, 보안을 보호하는 측면에서 모든 지역에서 높은 표준을 충족할 수 있습니다. 이 기술은 AI 비즈니스가 공중의 신뢰를 높이고, 고객 기반을 강화하며, AI의 잠재적인 이점을 사회에 활용하는 강력한 방법을 나타냅니다.

Six Key Values for AI Governance

AI 거버넌스에 대한 가치 기반 접근법을 채택하려는 모든 조직에게, 나는 우리가 따르는 여섯 가지 주요 값을 사용하는 것을 제안합니다: 책임성, 설명 가능성, 투명성, 공정성, 보안, 그리고 이의 제기 가능성.

우리는 이러한 값을 선택했습니다. 왜냐하면它们은 AI 시스템 수명 주기의 모든 주요 영역을 다루고, 이미 ISO/IEC 42001과 같은 다양한 국제 및 국가 표준에서 정의되었으며, 또한 영국 정부의 AI 플레이북과 같은 것들이 있습니다.

먼저, 책임성은 AI 수명 주기의 모든 단계에서 누가 무엇에 대한 책임이 있는지 아는 것을 의미합니다. 명확한 소유권이 없으면, 필수적인 통제가 생략될 수 있습니다. 왜냐하면 개인이나 팀이 최종 책임을 지지 않기 때문입니다. 조직은 AI 시스템과 주요 단계에 대한 고위급 명명된 소유자를 할당해야 하며, 제3자 도구와 동일한 심사에 대한 위험 기반 거버넌스 모델을 사용해야 합니다. 이것은 자신의 시스템을 이해하는 것만큼 잘 공급자 조건, 제한 및 책임을 이해하는 것을 의미합니다.

경제 협력 개발 기구(OECD)는 AI에서 책임성 향상을 위한 지침에서 이를 잘 포착했습니다. 이는 조직이 “AI 위험 관리 프로세스를 더广い 조직 거버넌스로 통합하는 메커니즘을 생성하여, 조직 내 및 전체 AI 가치 사슬 전반에 걸쳐 위험 관리의 문화를 육성”하도록 권장합니다.

다음은 설명 가능성입니다. 조직은 AI 시스템이 어떻게 결정을 내리는지 보여주어야 합니다. 이는 결정 과정, 시스템 설계, 훈련 데이터 및 결정 프로세스의 명확한 기록을 문서화하고 추적하는 메커니즘을 필요로 합니다. 이것은 팀이 시스템의 시작부터 배포까지 정보의 계보를 이해할 수 있도록 합니다.

공정성은 AI 시스템이 공정한 결과를 생성하고 기존의 편향을 복제하거나 증폭하지 않는다는 것을 의미합니다. 고의적인 검사를 하지 않으면, 시스템은 편향된 결과를 생성하여 피해를 줄 수 있습니다. 특히 채용, 의료 및 형사 사법과 같은 고영향 분야에서 이는 특히 문제입니다. 이를 완화하기 위해, 조직은 편향 감지 측정을 구현하고, 관련 그룹에서 출력을 정기적으로 검토하며, 지역 비차별 요구 사항을 수용할 수 있는 거버넌스 프레임워크를 설계해야 합니다. 실제로 이는 가장 높은 법적 표준을 충족하는 시스템을 구축하는 것을 의미합니다. 이는 영국의 평등법 2010과 EU의 기본권 헌장과 같은 법률下的 의무를 포함합니다.

투명성은 사용자와 규제 기관 모두에게 명확성을 제공하는 것입니다. 사람들은 AI가 사용되고 있는지, 결정 과정에서 어떤 역할을 하는지, 그리고 어떤 데이터가 그 아래에 있는지 이해해야 합니다. 실제적인 출발점은 AI 시스템 전반에 걸쳐 문서화를 표준화하는 것입니다. 이는 모델 카드와 같은 내부 도구를 지원합니다. 모델 카드는 모델이 사용되도록 의도되는 컨텍스트, 성능 평가 절차의 세부 정보 및 기타 관련 정보를 설명하는 모델과 함께 제공되는 짧은 문서입니다. 투명성이 없으면, 사용자는 불공정한 결과를 이의제기할 수 없으며, 규제 기관은 효과적으로 개입할 수 없으며, 유해한 영향이 카펫 아래로 쓸려갈 수 있습니다.

보안은 AI 시스템을 비인가된 액세스, 조작 또는 의도하지 않은 동작으로부터 보호하는 것을 의미합니다. 보안이 약하면, AI는 조직, 사용자 및 데이터를 위험에 빠뜨릴 수 있으며, 금전적 및 평판상의 피해를 초래할 수 있습니다. 조직은 성능 및 정확도 임계값을 정의하고, 현실적인 조건에서 시스템을 스트레스 테스트하고, 취약성을 식별하기 위해 적대적 테스트를 포함해야 합니다.

마지막으로, 이의 제기 가능성은 사람들이 AI 기반 결정에 대한 이의를 제기하거나 항소할 수 있는 명확하고 접근 가능한 방법을 제공하는 것을 의미합니다. 이를 제공하지 않으면, 영향을 받는 사용자는 어떠한 구제도 없으며, 문제는 결코 표면화되거나 해결되지 않을 수 있습니다. 조직은 사용 지점에서 보고 채널을 제공하고, 이의 제기를 관리하기 위한 고위급 소유자를 할당하며, 시스템을 일시 중지, 검토 또는 업데이트할 수 있도록 해야 합니다.

가치 기반 프레임워크의 이점은 무엇인가?

가치 기반 접근법을 채택하는 두 가지 강력한 이유가 있습니다. 첫째, AI 시스템을 구축하고 배포하는 사람들은 영향을 받는 사람들과 조직에 대한 윤리적 책임을 가지고 있습니다. 둘째, 이는 AI의 약속된 이점을 실제로 실현하는 더 효과적인 방법입니다.

AI 시스템의 사용자, 기업 및 개인은 AI 시스템의 제작자가 개인 데이터를 남용하거나 불필요한 위험에 노출하지 않는다는 것을 암묵적으로 신뢰합니다. 조직이 이러한 신뢰를 깨면, 사용자를 유지하는 것이 매우 어려워집니다. 궁극적으로, 사용자가 AI 시스템을 신뢰하고, 명확한 이점을 볼 수 없으면, 그들의 도입에 동의하지 않을 것입니다. 이것은 더 많은 사회적 및 경제적 분열을 초래할 것이며, 우리는 이 기술에서 제공되는 많은 기회를 놓치게 될 것입니다.

반면에, 모든 지역에서, 특히 거버넌스 요구 사항이 완화된 지역에서 가치 기반 프레임워크를 적용하는 회사들은 고객, 투자자 및 규제 기관에 더 높은 표준을 지키고 있음을 보여줄 수 있습니다. 이것은 신뢰, 참여 및 궁극적으로 비즈니스 성공을 구축합니다.

강력한 AI 거버넌스는 규제 부담이 아니라 가치 창조자입니다. 이는 비즈니스들이 새로운 제품을 더 빠르게 시장에 출시하고, 위험 노출을 줄이고, 여러 시장에서 솔루션을 확장할 수 있도록 합니다.

McKinsey의 ‘AI의 상태’ 보고서는 “CEO의 AI 거버넌스에 대한 감독…은 조직의 일반 AI 사용으로부터 보고된 이익에 가장 상관관계가 높은 요소 중 하나”라고 발견했습니다. 이는 이러한 접근법의 상업적 이점을 강조합니다.

그러나 이것은 단순히 옳은 일입니다. 우리는 우리의 글로벌 윤리 AI 정책을 동일한 원칙을 중심으로 구축했습니다. 즉, 고급 기술은 사람과 사회를 섬겨야 하며, 그 반대는 아닙니다. 이것은 사회 5.0의 더广い 비전을 반영합니다. 즉, 경제적 발전과 사회적 도전의 해결을 결합하는 인간 중심의 혁신 모델입니다.

AI와 같은 새로운 기술이 더 행복하고 조화로운 사회를 육성하기 위해서는, 그것은 강력한 윤리적 기반 위에 구축되어야 합니다. 이것은 조직이 달성하고자 하는 표준에 대한焦点을 맞추는 것으로 시작됩니다.

Isabellaย Grandi๋Š”ย NTT DATA UK&I์˜ ๋ฐ์ดํ„ฐ ๋ฐ AI ์ „๋žต, ๊ฑฐ๋ฒ„๋„Œ์Šค ๋ฐ ์œค๋ฆฌ ์ฑ…์ž„์ž์ž…๋‹ˆ๋‹ค. ๊ทธ๋…€๋Š” ์กฐ์ง๊ณผ ํ˜‘๋ ฅํ•˜์—ฌ ์ฑ…์ž„ ์žˆ๋Š” AI ๋ฐ AI ๊ฑฐ๋ฒ„๋„Œ์Šค๋ฅผ ์„ค๊ณ„ํ•˜๊ณ  ์ œ๊ณตํ•˜์—ฌ ์กฐ์ง์„ ํ˜„์žฌ ์ƒํƒœ์—์„œ ๋” ์„ฑ์ˆ™ํ•˜๊ณ  ๋ฐ์ดํ„ฐ ์ฃผ๋„์ ์ธ ์šด์˜ ๋ชจ๋ธ๋กœ ์ด๋™์‹œํ‚ต๋‹ˆ๋‹ค.

๊ทธ๋…€์˜ ์ž‘์—…์€ ์กฐ์ง์ด AI๋ฅผ ์„ค๊ณ„ํ•˜๊ณ  ๋ฐฐํฌํ•˜๋Š” ๋ฐฉ์‹์— ์œค๋ฆฌ์  ๊ด€ํ–‰๊ณผ ๊ฐ•๋ ฅํ•œ AI ์œ„ํ—˜ ๊ด€๋ฆฌ๋ฅผ ํ†ตํ•ฉํ•˜์—ฌ ์ฑ…์ž„ ์žˆ๋Š” ์‚ฌ์šฉ์ด ์˜์‚ฌ ๊ฒฐ์ • ๊ตฌ์กฐ์™€ ์ผ์ƒ์ ์ธ ์šด์˜์— ๊ตฌ์ถ•๋˜๋„๋ก ํ•˜๋Š” ๋ฐ ์ค‘์ ์„ ๋‘๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค.

๊ด‘๊ณ  ๊ณ ์ง€: Unite.AI๋Š” ๋…์ž์—๊ฒŒ ์ •ํ™•ํ•œ ์ •๋ณด์™€ ๋‰ด์Šค๋ฅผ ์ œ๊ณตํ•˜๊ธฐ ์œ„ํ•ด ์—„๊ฒฉํ•œ ํŽธ์ง‘ ๊ธฐ์ค€์„ ์ค€์ˆ˜ํ•ฉ๋‹ˆ๋‹ค. ๋‹น์‚ฌ๊ฐ€ ๊ฒ€ํ† ํ•œ ์ œํ’ˆ ๋งํฌ๋ฅผ ํด๋ฆญํ•  ๊ฒฝ์šฐ ๋ณด์ƒ์„ ๋ฐ›์„ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.