Connect with us

AI ์‹ ๋ขฐ ๊ฒฉ์ฐจ ํ•ด์†Œ

์‚ฌ์ƒ ๋ฆฌ๋”

AI ์‹ ๋ขฐ ๊ฒฉ์ฐจ ํ•ด์†Œ

mm

AI 채택은 중요한 전환점에 도달하고 있습니다. 기업은 운영 효율성을 크게 개선할 수 있는 AI의 약속으로 인해热烈하게 AI를 받아들이고 있습니다.

최근 Slack Survey에 따르면 AI 채택은 계속 가속화되고 있으며, 작업장에서 AI 사용은 최근 24% 증가했으며 96%의 조사된 경영진은 “사업 운영 전반에 걸쳐 AI를 통합하는 것이 긴급하다”고 믿고 있습니다.

그러나 AI의 유용성과 잠재적인 부정적인 영향에 대한 우려 사이에 커지는 간격이 있습니다. 책상 노동자의 경우, AI 출력이 작업 관련 태스크를 지원하기에 충분히 신뢰할 수 있는지 믿는 사람은 7%에 불과합니다.

이 간격은 다음과 같은 요인과 관련하여 경영진의 AI 통합에 대한 열열함과 직원의 회의성 사이의鲜明한 대조에서 명확히 나타납니다:

신뢰 구축을 위한 법적 조치

이러한 다면적 신뢰 문제를 해결하기 위해 법적 조치는 점점 더 필요한 단계로 여겨지고 있습니다. 법률은 AI 개발 및 배포를 규제하여 신뢰를 강화하는 데 중요한 역할을 할 수 있습니다. 주요 법적 접근 방식에는 다음이 포함됩니다:

  • 데이터 보호 및 개인 정보 보호 법률: 엄격한 데이터 보호 법률을 시행하여 AI 시스템이 개인 데이터를 책임감 있게 처리하도록 합니다. 유럽 연합의 일반 데이터 보호 규정(GDPR)과 같은 규정은 투명성, 데이터 최소화, 사용자 동의를義務화함으로써 선례를 설정합니다. 특히, GDPR의 제22조는 자동화된 의사 결정의 잠재적인 부정적인 영향으로부터 데이터 주체를 보호합니다. 최근 유럽 연합 법원(CJEU)의 결정은 자동화된 의사 결정에 대한 개인의 권리를 확인합니다. Schufa Holding AG의 경우, 독일 거주자가 자동화된 신용 심사 시스템을 기반으로 은행 대출을 거부당한 경우, 법원은 제22조가 AI 기술 사용과 관련된 개인 정보 보호 권리를 safegu하는 조치를 시행하도록 조직에義務를 부과한다고 판결했습니다.
  • AI 규정: 유럽 연합은 EU AI 법률(EU AIA)을 채택하여 AI 시스템의 위험 수준에 따라 사용을 규제하는 것을 목표로 합니다. 이 법은 높은 위험을 가진 AI 시스템에 대한 필수 요구 사항을 포함하며, 데이터 품질, 문서화, 투명성, 인간 감시와 같은 영역을 다룹니다. AI 규정의 주요 이점 중 하나는 AI 시스템의 투명성 및 설명 가능성을 촉진하는 것입니다. 또한, EU AIA는 개발자, 운영자, 사용자 등 AI 시스템의 모든 관련자가 자신의 행동과 결과에 책임을 지도록 하는 명확한 책임 프레임워크를 설정합니다. 이는 AI 시스템이 책임감 있게 관리되는 것으로 믿음을 줍니다.

신뢰할 수 있는 AI를 위한 표준화 이니셔티브

기업은 새로운 법률이 시행되기를 기다릴 필요 없이 자신의 프로세스가 윤리적이고 신뢰할 수 있는 가이드라인 내에 있는지 확인할 수 있습니다. AI 규정은 AI 시스템의 전체 수명 주기 동안 책임감 있는 AI 거버넌스와 최고의 관행을 구현할 수 있는 기업을 강화하는 새로운 AI 표준화 이니셔티브와 함께 작동합니다.

미국 국립 표준 기술 연구소(NIST)는 AI 위험 관리 프레임워크를 개발하여 조직이 AI 관련 위험을 관리하도록 도왔습니다. 이 프레임워크는 다음 네 가지 핵심 기능으로 구성됩니다:

  • AI 시스템과 작동하는 컨텍스트를 이해합니다. 이는 AI 시스템의 목적, 이해 관계자, 잠재적인 영향 등을 정의하는 것을 포함합니다.
  • AI 시스템과 관련된 위험을 정량화합니다. 이는 시스템의 성능, 신뢰성, 잠재적인 편향 등을 평가하는 것을 포함합니다.
  • 식별된 위험을 완화하기 위한 전략을 구현합니다. 이는 AI 시스템이 허용 가능한 위험 수준 내에서 작동하도록 정책, 절차, 제어를 개발하는 것을 포함합니다.
  • AI 시스템과 위험 관리 프로세스를 감독하기 위한 거버넌스 구조와 책임 메커니즘을 설정합니다. 이는 위험 관리 전략에 대한 정기적인 검토와 업데이트를 포함합니다.

생성형 AI 기술의 발전에 대응하여 NIST는 또한 생성형 인공 지능 프로파일을 발행하여 기초 모델과 관련된 특정 위험을 완화하기 위한 지침을 제공합니다. 이러한 조치는 사기성 사용(예: 허위 정보, 저하된 콘텐츠, 혐오 발언)으로부터 보호하고, 공정성, 개인 정보 보호, 정보 보안, 지적 재산권, 지속 가능성과 같은 인간 가치에 초점을 맞춘 윤리적 AI 적용에 중점을 둡니다.

さらに, 국제 표준화 기구(ISO)와 국제 전기 기술 위원회(IEC)는 공동으로 ISO/IEC 23894를 개발하여 AI 위험 관리를 위한 포괄적인 표준을 제공했습니다. 이 표준은 AI 수명 주기 전반에 걸쳐 위험을 식별하고 관리하기 위한 체계적인 접근 방식을 제공합니다. 이는 위험 식별, 위험 심각도 평가, 완화 또는 회피를 위한 조치, 그리고 지속적인 모니터링 및 검토를 포함합니다.

AI와 공공 신뢰의 미래

앞으로, AI와 공공 신뢰의 미래는 다음 몇 가지 핵심 요소에 달려 있을 것입니다. 이는 모든 조직이 따라야 할 필수 요소입니다:

  • 潜在적인 규정 준수 문제를 식별하기 위한 종합적인 위험 평가를 수행합니다. AI 시스템의 윤리적 의미와 잠재적인 편향을 평가합니다.
  • 법률, 규정 준수, IT, 데이터 과학 전문가를 포함한 교차 기능 팀을 설정합니다. 이 팀은 규제 변경 사항을 모니터링하고 AI 시스템이 새로운 규정에 따라 규정 준수하는지 확인하는 책임을 맡습니다.
  • AI 이니셔티브를 관리하기 위한 정책, 절차, 역할을 포함하는 거버넌스 구조를 구현합니다. AI 작동 및 의사 결정 프로세스에서 투명성을 보장합니다.
  • 규정 준수 여부를 확인하기 위한 정기적인 내부 감사를 수행합니다. 모니터링 도구를 사용하여 AI 시스템의 성능과 규정 준수를 추적합니다.
  • 직원들에게 AI 윤리, 규정 요구 사항, 최고의 관행에 대한 교육을 제공합니다. 규정 변경 사항과 규정 준수 전략에 대한 최신 정보를 제공하기 위한 연속적인 교육 세션을 제공합니다.
  • AI 개발 프로세스, 데이터 사용, 의사 결정 기준에 대한 자세한 기록을 유지합니다. 필요에 따라 규제 기관에 제출할 수 있는 보고서를 생성할 준비를 합니다.
  • 규제 기관과 관계를 구축하고 공공 의견 수렴에 참여합니다. 제안된 규정에 대한 의견을 제공하고 필요에 따라 명확성을 구합니다.

신뢰할 수 있는 AI를 위한 컨텍스트화

궁극적으로, 신뢰할 수 있는 AI는 데이터의 무결성에 달려 있습니다. 생성형 AI의 대규모 데이터 세트에 대한 의존도는 출력의 정확성과 신뢰성을 의미하지 않습니다. 사실, 이는 두 표준 모두에 역효과를 낳습니다. Retrieval Augmented Generation(RAG)은 “정적 LLM과 컨텍스트 특정 데이터를 결합하는” 혁신적인 기술입니다. 이는 “높은 지식의 보조”로 생각할 수 있으며, 이는 쿼리 컨텍스트와 포괄적인 지식 베이스 또는 문서 저장소의 특정 데이터를 일치시킵니다. RAG를 통해 조직은 개인 정보 보호, 보안, 정확성, 신뢰성 기대에 부응하는 컨텍스트 특정 애플리케이션을 제공할 수 있습니다.

RAG는 조직이 의사 결정, 고객 경험, 운영, 경쟁 우위를 개선하기 위해 매우 정확하고 컨텍스트 인식 및 적응 가능한 목적을 가진 AI 애플리케이션을 구축할 수 있도록 합니다.

AI 신뢰 격차를 해소하는 것은 투명성, 책임성, 윤리적 사용을 보장하는 것을 의미합니다. 이러한 표준을 유지하기 위한 단일答案은 없지만, 기업은 전략과 도구를 사용할 수 있습니다. 강력한 데이터 개인 정보 보호 조치를 구현하고 규제 표준을 준수하면 사용자 신뢰를 구축할 수 있습니다. AI 시스템의 편향 및 부정확성을 정기적으로 감사하면 공정성을 보장할 수 있습니다. 대규모 언어 모델(LLM)을 목적을 가진 AI로 증강하면 신뢰를 구축할 수 있습니다. 이해 관계자와 AI의 기능 및 한계에 대해 논의하면 신뢰와 수용을 촉진할 수 있습니다.

신뢰할 수 있는 AI는 쉽게 달성할 수 있는 것이 아니지만, 우리의 미래에 대한 필수적인 약속입니다.

Andrew Pery๋Š” ๊ธ€๋กœ๋ฒŒ ์ธํ…”๋ฆฌ์ „ํŠธ ์ž๋™ํ™” ํšŒ์‚ฌ ABBYY์˜ AI ์œค๋ฆฌ ์ „๋„์‚ฌ์ž…๋‹ˆ๋‹ค. ๊ทธ๋Š” Northwestern University Pritzker School of Law์—์„œ ์šฐ๋“ฑ์œผ๋กœ ๋ฒ•ํ•™ ์„์‚ฌ ํ•™์œ„๋ฅผ ์ทจ๋“ํ–ˆ์œผ๋ฉฐ ์ธ์ฆ๋œ ๋ฐ์ดํ„ฐ ๊ฐœ์ธ์ •๋ณด ์ „๋ฌธ๊ฐ€์ž…๋‹ˆ๋‹ค. Pery๋Š” 25๋…„ ์ด์ƒ์„ ์ฃผ์š” ๊ธ€๋กœ๋ฒŒ ๊ธฐ์ˆ  ํšŒ์‚ฌ๋“ค์˜ ๊ธฐ์ˆ  ๊ด€๋ฆฌ ํ”„๋กœ๊ทธ๋žจ์„ ์ฃผ๋„ํ•˜๋ฉฐ ๋ณด๋‚ธ ๊ฒฝํ—˜์ด ์žˆ์Šต๋‹ˆ๋‹ค. ๊ทธ์˜ ์ „๋ฌธ ๋ถ„์•ผ๋Š” ์ง€๋Šฅํ˜• ๋ฌธ์„œ ์ฒ˜๋ฆฌ ์ž๋™ํ™” ๋ฐ ํ”„๋กœ์„ธ์Šค ์ธํ…”๋ฆฌ์ „์Šค์ด๋ฉฐ, ํŠนํžˆ AI ๊ธฐ์ˆ , ์‘์šฉ ์†Œํ”„ํŠธ์›จ์–ด, ๋ฐ์ดํ„ฐ ๊ฐœ์ธ์ •๋ณด ๋ฐ AI ์œค๋ฆฌ์— ๋Œ€ํ•œ ์ „๋ฌธ ์ง€์‹์„ ๊ฐ€์ง€๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค.