Connect with us

AI 신뢰 격차 해소하기

사상 리더

AI 신뢰 격차 해소하기

mm

AI 도입은 중요한 전환점에 도달하고 있습니다. 기업들은 운영 효율성에서 획기적인 개선을 약속하는 AI의 가능성에 이끌려 열정적으로 AI를 수용하고 있습니다. 최근 Slack 설문조사에 따르면, AI 도입은 계속 가속화되고 있으며, 직장 내 AI 사용이 최근 24% 증가했고, 조사 대상 경영진의 96%가 “비즈니스 운영 전반에 AI를 통합하는 것이 시급하다”고 믿는 것으로 나타났습니다. 그러나 AI의 유용성과 그 잠재적 부정적 영향에 대한 우려 사이에는 점점 벌어지는 격차가 있습니다. 데스크워커 중 단 7%만이 AI의 출력물이 업무 관련 작업을 지원할 만큼 신뢰할 수 있다고 믿습니다. 이러한 격차는 AI 통합에 대한 경영진의 열정과 직원들의 회의론 사이의 뚜렷한 대조에서 드러나며, 그 회의론은 다음과 같은 요인과 관련이 있습니다:

신뢰 구축에서 입법의 역할

이러한 다면적인 신뢰 문제를 해결하기 위해 입법 조치는 점점 더 필요한 단계로 여겨지고 있습니다. 입법은 AI 개발과 배포를 규제함으로써 신뢰를 높이는 데 중추적인 역할을 할 수 있습니다. 주요 입법적 접근 방식은 다음과 같습니다:

  • 데이터 보호 및 개인정보 보호 법률: 엄격한 데이터 보호 법률을 시행하면 AI 시스템이 개인 데이터를 책임 있게 처리하도록 보장합니다. 유럽 연합의 일반 데이터 보호 규정(GDPR)과 같은 규제는 투명성, 데이터 최소화, 사용자 동의를 의무화함으로써 선례를 마련했습니다. 특히, GDPR 제22조는 데이터 주체가 자동화된 의사결정의 잠재적 부정적 영향으로부터 보호받도록 합니다. 최근 유럽 연합 사법 재판소(CJEU)의 판결은 개인이 자동화된 의사결정의 대상이 되지 않을 권리를 확인했습니다. 독일 거주자가 자동화된 신용 심사 시스템을 근거로 대출 신청이 거절된 Schufa Holding AG 사건에서 법원은 제22조가 조직으로 하여금 AI 기술 사용과 관련된 개인정보 보호 권리를 보호하기 위한 조치를 시행할 것을 요구한다고 판시했습니다.
  • AI 규제: 유럽 연합은 EU AI 법(EU AIA)을 비준했으며, 이 법은 위험 수준에 따라 AI 시스템의 사용을 규제하는 것을 목표로 합니다. 이 법은 데이터 품질, 문서화, 투명성, 인간 감독과 같은 영역을 포괄하는 고위험 AI 시스템에 대한 의무적 요구사항을 포함합니다. AI 규제의 주요 이점 중 하나는 AI 시스템의 투명성과 설명 가능성을 촉진하는 것입니다. 더 나아가, EU AIA는 명확한 책임 프레임워크를 수립하여 AI 시스템의 개발자, 운영자, 심지어 사용자까지 그들의 행동과 AI 배포의 결과에 대해 책임을 지도록 합니다. 이에는 AI 시스템이 피해를 초래할 경우 구제 메커니즘이 포함됩니다. 개인과 조직이 책임을 질 때, AI 시스템이 책임 있게 관리된다는 확신이 구축됩니다.

신뢰할 수 있는 AI 문화를 조성하기 위한 표준 이니셔티브

기업들은 자신들의 프로세스가 윤리적이고 신뢰할 수 있는 지침 내에 있는지 확인하기 위해 새로운 법률이 시행되기를 기다릴 필요가 없습니다. AI 규제는 조직이 AI 시스템의 설계, 구현, 배포, 그리고 최종적으로 폐기에 이르는 전 주기에 걸쳐 책임 있는 AI 거버넌스와 모범 사례를 구현할 수 있도록 지원하는 새로운 AI 표준 이니셔티브와 함께 작동합니다. 미국 국립표준기술연구소(NIST)는 조직이 AI 관련 위험을 관리하도록 안내하기 위해 AI 위험 관리 프레임워크를 개발했습니다. 이 프레임워크는 네 가지 핵심 기능을 중심으로 구성되어 있습니다:

  • AI 시스템과 그 운영 환경을 이해합니다. 여기에는 AI 시스템의 목적, 이해관계자, 잠재적 영향을 정의하는 것이 포함됩니다.
  • 기술적 및 비기술적 측면을 포함한 AI 시스템과 관련된 위험을 정량화합니다. 이는 시스템의 성능, 신뢰성, 잠재적 편향을 평가하는 것을 수반합니다.
  • 식별된 위험을 완화하기 위한 전략을 구현합니다. 여기에는 AI 시스템이 허용 가능한 위험 수준 내에서 운영되도록 보장하기 위한 정책, 절차, 통제 수단을 개발하는 것이 포함됩니다.
  • AI 시스템과 그 위험 관리 프로세스를 감독하기 위한 거버넌스 구조와 책임 메커니즘을 수립합니다. 이는 위험 관리 전략을 정기적으로 검토하고 업데이트하는 것을 수반합니다.

생성형 AI 기술의 발전에 대응하여 NIST는 또한 ‘인공지능 위험 관리 프레임워크: 생성형 인공지능 프로파일’을 발표했으며, 이는 기초 모델과 관련된 특정 위험을 완화하기 위한 지침을 제공합니다. 이러한 조치에는 악의적인 사용(예: 허위 정보, 저질 콘텐츠, 증오 발언)으로부터 보호하고, 공정성, 개인정보 보호, 정보 보안, 지적 재산권 및 지속 가능성이라는 인간적 가치에 초점을 맞춘 AI의 윤리적 적용이 포함됩니다. 더 나아가, 국제표준화기구(ISO)와 국제전기기술위원회(IEC)는 공동으로 ISO/IEC 23894라는 포괄적인 AI 위험 관리 표준을 개발했습니다. 이 표준은 위험 식별, 위험 심각도 평가, 완화 또는 회피를 위한 처리, 지속적인 모니터링 및 검토를 포함하여 AI 수명 주기 전반에 걸쳐 위험을 식별하고 관리하는 체계적인 접근 방식을 제공합니다.

AI와 공공 신뢰의 미래

앞으로, AI와 공공 신뢰의 미래는 모든 조직이 따라야 할 몇 가지 핵심 요소에 달려 있을 것입니다:

  • 잠재적 규정 준수 문제를 식별하기 위한 포괄적인 위험 평가를 수행합니다. AI 시스템의 윤리적 함의와 잠재적 편향을 평가하십시오.
  • 법무, 규정 준수, IT, 데이터 과학 전문가를 포함한 크로스 기능 팀을 구성합니다. 이 팀은 규제 변화를 모니터링하고 AI 시스템이 새로운 규정을 준수하도록 보장할 책임이 있어야 합니다.
  • 정책, 절차, AI 이니셔티브 관리 역할을 포함하는 거버넌스 구조를 구현합니다. AI 운영 및 의사결정 프로세스의 투명성을 보장하십시오.
  • AI 규정 준수를 보장하기 위해 정기적인 내부 감사를 실시합니다. 모니터링 도구를 사용하여 AI 시스템 성능과 규제 기준 준수 여부를 추적하십시오.
  • 직원들에게 AI 윤리, 규제 요구 사항 및 모범 사례에 대해 교육합니다. AI 규정 및 규정 준수 전략의 변화에 대해 직원들이 정보를 얻을 수 있도록 지속적인 교육 세션을 제공하십시오.
  • AI 개발 프로세스, 데이터 사용, 의사결정 기준에 대한 상세한 기록을 유지합니다. 필요한 경우 규제 기관에 제출할 수 있는 보고서를 생성할 준비를 하십시오.
  • 규제 기관과의 관계를 구축하고 공개 협의에 참여합니다. 제안된 규정에 대한 피드백을 제공하고 필요할 때는 설명을 요청하십시오.

맥락화된 AI를 통해 신뢰할 수 있는 AI 달성하기

궁극적으로, 신뢰할 수 있는 AI는 데이터의 무결성에 달려 있습니다. 생성형 AI가 대규모 데이터 세트에 의존한다고 해서 출력의 정확성과 신뢰성이 보장되는 것은 아닙니다. 오히려 이 두 기준과는 상반되는 경우가 많습니다. 검색 증강 생성(RAG)은 “정적 LLM을 맥락별 데이터와 결합하는 혁신적인 기술입니다. 그리고 이를 매우 지식이 풍부한 조력자로 생각할 수 있습니다. 질의 맥락을 포괄적인 지식 기반의 특정 데이터와 매칭시키는 조력자입니다.” RAG를 통해 조직은 개인정보 보호, 보안, 정확성 및 신뢰성 기대치를 준수하는 맥락별 애플리케이션을 제공할 수 있습니다. RAG는 지식 기반이나 문서 저장소에서 관련 정보를 검색함으로써 생성된 응답의 정확성을 향상시킵니다. 이를 통해 모델이 정확하고 최신 정보를 바탕으로 생성을 할 수 있게 합니다. RAG는 조직이 목적에 맞게 구축된 AI 애플리케이션을 구축할 수 있도록 하여, 의사결정 개선, 고객 경험 향상, 운영 간소화 및 상당한 경쟁 우위 달성을 위해 높은 정확도, 맥락 인식 및 적응성을 갖추도록 합니다. AI 신뢰 격차를 해소하는 것은 AI의 투명성, 책임성, 윤리적 사용을 보장하는 것을 포함합니다. 이러한 기준을 유지하는 단 하나의 답은 없지만, 기업들은 활용할 수 있는 전략과 도구를 가지고 있습니다. 강력한 데이터 개인정보 보호 조치를 구현하고 규제 기준을 준수하면 사용자 신뢰가 구축됩니다. AI 시스템의 편향과 부정확성을 정기적으로 감사하면 공정성이 보장됩니다. 목적에 맞게 구축된 AI로 대규모 언어 모델(LLM)을 증강하면 독점 지식 기반과 데이터 소스를 통합하여 신뢰를 제공합니다. 이해관계자에게 AI의 능력과 한계에 대해 알리는 것도 신뢰와 수용을 조성합니다. 신뢰할 수 있는 AI는 쉽게 달성할 수 없지만, 우리의 미래를 위한 중요한 약속입니다.

Andrew Pery is an AI Ethics Evangelist at global intelligent automation company ABBYY. He holds a Master of Law degree with Distinction from Northwestern University Pritzker School of Law and is a Certified Data Privacy Professional. Pery has more than 25 years of experience spearheading tech management programs for leading global technology companies. His expertise is in intelligent document process automation and process intelligence with a particular expertise in AI technologies, application software, data privacy and AI ethics.