Connect with us

윤리

5개의 기초 필러를 위한 책임 있는 AI 보장

mm

우리는 새로운 디지털 경제에서 생성되는 데이터의海를 처리하기 위한 AI/ML 시스템의 압도적인 성장을 목격하고 있습니다. 그러나 이러한 성장과 함께, AI의 윤리적 및 법적 영향에 대해 심각하게 고려할 필요가 있습니다.

우리가 자동 대출 승인과 같은 점점 더 복잡하고 중요한 작업을 AI 시스템에 맡길수록, 이러한 시스템이 책임 있고 신뢰할 수 있는지에 대해 절대적으로 확신해야 합니다. AI에서 편향을 줄이는 것은 많은 연구자들에게巨大한 관심 분야가 되었으며, 이는巨大한 윤리적 의미를 가지며, 이러한 시스템에 주는 자율성의 양도 마찬가지입니다.

책임 있는 AI의 개념은 귀하의 AI 배포에 대한 신뢰를 구축하는 데 도움이 될 수 있는 중요한 프레임워크입니다. 책임 있는 AI를 위한 5개의 핵심 기초 필러가 있습니다. 이 기사는 이러한 필러를 탐색하여 더好的 시스템을 구축하는 데 도움이 될 것입니다.

1. 재현성

소프트웨어 개발 세계에는 “Hey, it works on my machine”이라는 옛말이 있습니다. ML과 AI에서는 이 문구를 “Hey, it works on my dataset”으로 바꿀 수 있습니다. 즉, 기계 학습 모델은 종종 블랙 박스일 수 있다는 것을 의미합니다. 많은 훈련 데이터 세트에는 샘플링 편향 또는 확인 편향과 같은 내재된 편향이 있을 수 있으며, 이는 최종 제품의 정확도를 낮출 수 있습니다.

AI/ML 시스템을 더 재현 가능하고 따라서 정확하고 신뢰할 수 있게 만드는 첫 번째 단계는 MLOps 파이프라인을 표준화하는 것입니다. 가장 똑똑한 데이터 과학자들도 각자의 기술과 라이브러리가 있으므로, 특징 엔지니어링과 결과 모델은 사람마다 균일하지 않습니다. MLflow와 같은 도구를 사용하여 MLOps 파이프라인을 표준화하여 이러한 차이를 줄일 수 있습니다.

AI/ML 시스템을 더 재현 가능하게 만드는 또 다른 방법은 “골드 데이터 세트”라고 하는 것을 사용하는 것입니다. 이러한 데이터 세트는 본질적으로 새로운 모델이 프로덕션에 출시되기 전에 테스트와 검증으로 작용합니다.

2. 투명성

앞서 언급했듯이, 많은 ML 모델, 특히 신경망은 블랙 박스입니다. 이러한 모델을 더 책임 있게 만들기 위해, 더 해석 가능하게 만들어야 합니다. 의사 결정 트리와 같은 간단한 시스템의 경우, 시스템이 특정 결정을 내린 이유와 방법을 이해하기는 khá 쉽습니다. 그러나 AI 시스템의 정확도와 복잡도가 증가할수록, 해석 가능성이 종종 낮아집니다.

새로운 연구 분야인 “설명 가능성”은 신경망과 딥 러닝과 같은 복잡한 AI 시스템에도 투명성을 제공하려고 합니다. 이러한 모델은 프록시 모델을 사용하여 신경망의 성능을 복사합니다. 또한 중요한 특징에 대한 유효한 설명을 제공하려고 합니다.

이 모든 것이 공정성으로 이어집니다. 귀하는 특정 결정을 내린 이유를 알고 싶으며, 이러한 결정이 공정한지 확인하고 싶습니다. 또한 부적절한 특징이 고려되지 않도록 하여 편향이 모델에 침투하지 않도록 해야 합니다.

3. 책임성

책임 있는 AI의 가장 중요한 측면은 책임성입니다. 이 주제에 대한 많은 논의가 있으며, 정부 부문에서도 AI 결과를 추동하는 정책에 대해 논의하고 있습니다. 이 정책 기반 접근 방식은 인간이 루프에 참여해야 하는 단계를 결정합니다.

책임성에는 정책을 안내하고 AI/ML 시스템을 제어하는 데 도움이 되는 강력한 모니터와 메트릭이 필요합니다. 책임성은 재현성과 투명성을 함께 묶지만, AI 윤리위원회와 같은 효과적인 감시가 필요합니다. 이러한 위원회는 정책 결정, 측정할 사항을 결정하며, 공정성 검토를 수행할 수 있습니다.

4. 보안

AI 보안은 데이터의 기밀성과 무결성을 중점으로 합니다. 시스템이 데이터를 처리할 때, 이러한 시스템이 안전한 환경에서 작동하는지 확인하고 싶습니다. 데이터가 데이터베이스에 저장될 때와 파이프라인을 통해 호출될 때 암호화되어 있는지 확인하고 싶습니다. 그러나 데이터가 기계 학습 모델에 평문으로 제공될 때仍然 취약점이 존재합니다. 호모모르픽 암호화와 같은 기술은 암호화된 환경에서 기계 학습 훈련을 허용하여 이러한 문제를 해결합니다.

또 다른 측면은 모델 자체의 보안입니다. 예를 들어, 모델 반전 공격은 해커가 모델을 구축하는 데 사용된 훈련 데이터를 학습할 수 있도록 합니다. 또한 모델 중독 공격이 있으며, 모델이 훈련 중에 나쁜 데이터를 삽입하여 전체 성능을 손상시킵니다. 이러한 적대적 공격에 대한 모델 테스트는 모델을 안전하고 보안 유지에 도움이 될 수 있습니다.

5. 개인 정보 보호

구글과 OpenMined는 최근 AI 개인 정보 보호를 우선순위로 두고 있으며, OpenMined는 이 주제에 대한 최근 컨퍼런스를 주최했습니다. GDPR 및 CCPA와 같은 새로운 규정과 потен적으로 더 많은 규정이 도입됨에 따라, 개인 정보 보호는 기계 학습 모델을 훈련하는 방법에 중추적인 역할을 할 것입니다.

고객의 데이터를 개인 정보 보호에 주의하여 처리하는 방법 중 하나는 연합 학습을 사용하는 것입니다. 이 분산 기계 학습 방법은 다양한 모델을 로컬로 훈련한 다음 중앙 허브에서 집계하는 동시에 데이터를 안전하게 유지합니다. 또 다른 방법은 통계적 노이즈를 도입하여 고객의 개별 값을 누출하지 않도록 하는 것입니다. 이는 집계를 작업하도록 유지하여 알고리즘에 대한 고객의 개별 데이터가 손상되지 않도록 합니다.

AI를 책임 있게 유지

  궁극적으로, AI를 책임 있게 유지하는 것은 AI/ML 시스템을 설계하는 각 조직의 책임입니다. 이러한 5개의 책임 있는 AI 측면에서 기술을 의도적으로 추구함으로써, 귀하는 인공 지능의 힘을 활용할 수 있을 뿐만 아니라, 신뢰할 수 있고 명확한 방법으로 이를 수행하여 귀하의 조직, 고객 및 규제 기관을 안심시킬 수 있습니다.

Dattaraj Rao, Persistent Systems의 Chief Data Scientist는 “Keras to Kubernetes: The Journey of a Machine Learning Model to Production”이라는 책의 저자입니다. Persistent Systems에서 Dattaraj는 컴퓨터 비전, 자연어 이해, 확률적 프로그래밍, 강화 학습, 설명 가능한 AI 등 최첨단 알고리즘을 탐구하는 AI 연구소를 이끌며 의료, 금융, 산업 분야에서 적용 가능성을 보여줍니다. Dattaraj는 기계 학습과 컴퓨터 비전 분야에서 11개의 특허를 보유하고 있습니다.