부본 AI 편견 및 문화적 고정관념: 효과, 한계 및 완화 - Unite.AI
Rescale 미팅 예약

인공 지능

AI 편견 및 문화적 고정관념: 효과, 한계 및 완화

mm

게재

 on

AI 편견 및 문화적 고정관념: 효과, 한계 및 완화

특히 인공지능(AI) 제너레이티브 AI, 인간의 인지와 지능을 이해하고 모방하는 능력으로 계속해서 기대치를 뛰어넘고 있습니다. 그러나 많은 경우 AI 시스템의 결과나 예측에는 문화적, 인종적 등 다양한 유형의 AI 편견이 반영될 수 있습니다.

버즈피드의 “세계의 바비 인형” 블로그(지금은 삭제됨)는 이러한 문화적 편견과 부정확성을 명확하게 드러냅니다. 이 '바비'는 다음을 사용하여 만들어졌습니다. 중도 – 세계 각지의 바비 인형이 어떤 모습일지 알아내는 선도적인 AI 이미지 생성기. 이에 대해서는 나중에 더 자세히 이야기하겠습니다.

그러나 AI가 '인종차별'을 하거나 부정확한 결과를 산출한 것은 이번이 처음이 아닙니다. 예를 들어, 2022년에 Apple은 소송을 제기 Apple Watch의 혈중 산소 센서가 유색 인종에 대해 편견을 가지고 있다는 주장에 대해. 보고된 또 다른 사례에서는 트위터 사용자들이 다음과 같은 사실을 발견했습니다. 트위터의 자동 이미지 자르기 AI 흑인보다는 백인의 얼굴을, 남성보다는 여성의 얼굴을 선호했습니다. 이는 매우 중요한 과제이며 이를 해결하는 것은 상당히 어렵습니다.

이 기사에서는 AI 편견이 무엇인지, 그것이 우리 사회에 어떤 영향을 미치는지 살펴보고 실무자가 어떻게 할 수 있는지 간략하게 논의하겠습니다. 완화 문화적 고정관념과 같은 문제를 해결하기 위한 것입니다.

AI 편견이란 무엇입니까?

AI 편향은 AI 모델이 특정 인구통계에 대해 차별적인 결과를 생성할 때 발생합니다. 여러 유형의 편견이 AI 시스템에 입력되어 잘못된 결과를 생성할 수 있습니다. 이러한 AI 편견 중 일부는 다음과 같습니다.

  • 고정관념적 편견: 고정관념적 편향은 AI 모델의 결과가 특정 인구통계에 대한 고정관념이나 인지된 개념으로 구성되는 현상을 말합니다.
  • 인종 편견: AI의 인종 편견은 AI 모델의 결과가 민족이나 인종에 따라 개인이나 집단에 차별적이고 불공평할 때 발생합니다.
  • 문화적 편견: AI 모델의 결과가 다른 문화보다 특정 문화를 선호할 때 문화적 편견이 작용합니다.

편견 외에도 다음과 같은 다른 문제도 AI 시스템의 결과를 방해할 수 있습니다.

  • 부정확성: 일관되지 않은 훈련 데이터로 인해 AI 모델에서 생성된 결과가 올바르지 않을 때 부정확성이 발생합니다.
  • 환각: 환각은 AI 모델이 사실 데이터를 기반으로 하지 않은 허구적이고 잘못된 결과를 생성할 때 발생합니다.

AI 편견이 사회에 미치는 영향

AI 편견이 사회에 미치는 영향은 해로울 수 있습니다. 편향된 AI 시스템은 사회에 이미 존재하는 편견을 증폭시키는 부정확한 결과를 낳을 수 있습니다. 이러한 결과는 차별과 권리 침해를 증가시키고 채용 프로세스에 영향을 미치며 AI 기술에 대한 신뢰를 감소시킬 수 있습니다.

또한 편향된 AI 결과는 종종 무고한 개인에게 심각한 결과를 초래할 수 있는 부정확한 예측으로 이어집니다. 예를 들어 2020년 XNUMX월에는 로버트 맥다니엘 시카고 경찰국의 예측 치안 알고리즘이 그를 '요주의 인물'로 분류해 범죄 행위의 표적이 됐다.

마찬가지로 편향된 의료 AI 시스템은 환자에게 심각한 결과를 초래할 수 있습니다. 2019년에는 과학 널리 사용된다는 사실을 발견했습니다. 미국 의료 알고리즘 유색 인종에 대해 인종적으로 편견이 있었기 때문에 흑인 환자는 고위험 치료 관리를 덜 받게 되었습니다.

세계의 바비 인형

7 월 2023에서는, Buzzfeed가 블로그를 게시했습니다. 전 세계 194명의 AI 생성 바비로 구성되어 있습니다. 해당 게시물은 트위터에서 입소문이 났다. Buzzfeed는 면책 조항을 작성했지만 네티즌들은 인종적, 문화적 부정확성을 지적하는 것을 막지 못했습니다. 예를 들어, AI가 생성한 독일 바비 이미지는 바비의 유니폼을 입고 있었습니다. SS 나치 일반

세계의 바비 인형-image5

마찬가지로, AI가 생성한 남수단 바비 이미지는 옆구리에 총을 들고 있는 모습을 보여주었는데, 이는 AI 알고리즘의 뿌리 깊은 편견을 반영합니다.

세계의 바비 인형-image4

이 외에도 여러 다른 이미지에서는 문화적 부정확성을 보여주었습니다. 구트라, 아랍 남성이 착용하는 전통 머리 장식.

세계의 바비 인형-image3

이 블로그 게시물은 문화적 고정관념과 편견으로 인해 엄청난 반발을 받았습니다. 그만큼 런던 통합학교(LIS) 이것을 표현상의 피해 품질 표준을 부과하고 AI 감독 기관을 설립하여 이를 점검해야 합니다.

AI 모델의 한계

AI는 다음과 같은 잠재력을 갖고 있다. 많은 산업에 혁명을 일으키다. 그러나 위에서 언급한 것과 같은 시나리오가 확산되면 일반적인 AI 채택이 감소하여 기회를 놓칠 수 있습니다. 이러한 경우는 일반적으로 다음과 같은 AI 시스템의 심각한 제한으로 인해 발생합니다.

  • 창의성 부족: AI는 주어진 훈련 데이터를 바탕으로만 의사결정을 내릴 수 있기 때문에 고정관념에서 벗어나 생각하는 창의성이 부족해 창의적인 문제 해결을 방해합니다.
  • 문맥 이해 부족: AI 시스템은 지역의 문맥적 뉘앙스나 언어 표현을 이해하는 데 어려움을 겪으며, 이로 인해 결과에 오류가 발생하는 경우가 많습니다.
  • 훈련 편향: AI는 모든 종류의 차별적 샘플을 포함할 수 있는 과거 데이터에 의존합니다. 훈련 중에 모델은 차별적 패턴을 쉽게 학습하여 불공평하고 편향된 결과를 생성할 수 있습니다.

AI 모델의 편견을 줄이는 방법

전문가 구성 견적 2026년까지 온라인 콘텐츠의 90%가 합성으로 생성될 수 있습니다. 따라서 Generative AI 기술에 존재하는 문제를 신속하게 최소화하는 것이 중요합니다.

AI 모델의 편향을 줄이기 위해 몇 가지 주요 전략을 구현할 수 있습니다. 이들 중 일부는 다음과 같습니다:

  • 데이터 품질 보장: 완전하고 정확하며 깨끗한 데이터를 AI 모델에 수집하면 편견을 줄이고 보다 정확한 결과를 생성하는 데 도움이 될 수 있습니다.
  • 다양한 데이터세트: AI 시스템에 다양한 데이터 세트를 도입하면 AI 시스템이 시간이 지남에 따라 더욱 포괄적이 되면서 편견을 완화하는 데 도움이 될 수 있습니다.
  • 규제 강화: 글로벌 AI 규정은 국경을 넘어 AI 시스템의 품질을 유지하는 데 매우 중요합니다. 따라서 국제기구는 AI 표준화를 위해 협력해야 한다.
  • 책임감 있는 AI 채택 증가: 책임 있는 AI 전략은 AI 편견을 완화하고 AI 시스템의 공정성과 정확성을 배양하며 지속적인 개선을 위해 노력하는 동시에 다양한 사용자 기반에 서비스를 제공하는 데 긍정적으로 기여합니다.

다양한 데이터 세트, 윤리적 책임, 개방형 커뮤니케이션 매체를 통합함으로써 AI가 전 세계적으로 긍정적인 변화의 원천이 되도록 할 수 있습니다.

우리 사회에서 편견과 인공지능의 역할에 대해 더 자세히 알고 싶다면 다음 블로그를 읽어보세요.