์ค๋ฆฌ
๊ณ ๊ธ AI ๊ธฐ์ ์ ์ค๋ฆฌ์ ๋์ ์ ์ง๋ฉดํด ์๋ค – ์ฌ์๊ฐ๋ค

Alfred Crews, Jr. BAE Systems Inc.의 인텔리전스 및 보안 부문 부사장 및 수석 변호사
올해 초, 글로벌 팬데믹 이전에, 나는 찰스턴에서 열린 시토톨의 인텔리전스 윤리 컨퍼런스에 참석하여 국가 안보를 보호하는 데 관련된 인텔리전스 수집의 윤리에 대한 주제를 논의했다. 방위 산업에서 우리는 지식, 컴퓨팅, 고급 기술의 확산을 보며, 특히 인공 지능(AI) 및 기계 학습(ML) 분야에서 그러하다. 그러나 인텔리전스 수집이나 실시간 전투의 맥락에서 AI를 배치하는 경우에는 상당한 문제가 있을 수 있다.
양자 컴퓨팅과 결합된 AI는 위험을 초래한다
우리가 질문하고 분석하여 앞으로의 길을 결정해야 할 것은 양자 컴퓨팅 기능과 함께 AI를 사용하여 전쟁 중에 결정하는 과정이다. 예를 들어, 터미네이터를 기억하는가? 우리의 기술이 거대한 도약을 하는데, 스카이넷이 제시한 현실이 우리 앞에 있다. 우리는 스카이넷이 우리를 공격하러 오고 있는가? 과거를 돌아보자; AI 기계는 스스로 생각하고 결정할 수 있었기 때문에 인간이 이를 지시하지 않았기 때문에 인간은 버그라고 판단하여 인간을 파괴하기로 했다. 내가 잘못된 것을 말하는 것이 아님을 명심하라. AI는伟大한 잠재력을 가지고 있지만, 내가 믿는 바와 같이, 위험 요인으로 인해 제어 매개변수가 있어야 한다.
AI의 윤리적 모호성 및 철학적 딜레마
나는 이것이 왜 미국 국방부(DoD)가 자체적인 AI 윤리 원칙을 채택했는지 정확히 알고 있다. AI의 사용은 새로운 윤리적 모호성과 위험을 초래한다. 양자 컴퓨팅 기능과 함께 AI를 결합하면 결정하는 능력이 변경되고 제어를 잃을 위험이 증가한다. 양자 컴퓨팅은 우리 인간의 뇌 운영 체제를 능가한다. 슈퍼 컴퓨터는 우리의 인간 뇌가 할 수 있는 것보다 훨씬 더 빠르고 정확하게 계산할 수 있다.
또한 컴퓨팅과 결합된 AI의 사용은 철학적 딜레마를 제기한다. 세계는 언제 기계가 스스로 의지를 가지도록 허용할 것인가? 그리고 기계가 스스로 생각할 수 있도록 허용된다면, 기계 자체가 스스로 의식을 갖게 되는 것을 의미하는가? 의식이란 생명체를 구성하는가? 우리는 아직 이러한 상황을 정의하는 방법을 결정하지 못했다. 따라서 현재로서는 인간의 개입 없이 기계가 스스로 행동할 수 있다면 결과를 초래할 수 있다. 기계가 인간의 개입을 무시하고 발사할 수 있는가? 기계가 스스로 작동한다면 플러그를拔을 수 있을까?
내가 보는 바와 같이, 방어적인 관점에서 AI를 사용하는 것은 쉽다. 그러나 공격적인 관점에서 이를 전환하는 것은 얼마나 쉬울까? 공격적인 관점에서 기계는 현장에서 전투 발사 결정할 것이다. 기계가 적을 향해 발사하는 것이 제네바 협약 및 무력 충돌 법을 위반하는가? 이 영역으로 빠르게 이동함에 따라 세계는 AI 및 양자 컴퓨팅을 전투에서 사용하는 경우 현재의 법을 준수해야 한다는 데 동의해야 한다.
DoD는 자율 시스템에서 AI를 사용할 때 항상 결정 과정에 참여하는 사람이 있을 것이라고 말한다. 최종적으로 트리거를 당겨 무기를 발사하는 결정은 사람이 내린다. 그것이 우리의 규칙이지만, 적이 다른 경로를 선택하여 AI가 가능한 기계가 모든 최종 결정할 경우 어떻게 될까? 그러면 기계는 이미 더 빠르고, 더 똑똑하고, 더 정확하기 때문에 우위를 점할 것이다.
顔認識과 함께 AI가 장착된 무인기를 살펴보자: 무인기는預先 결정된 목표를 테러리스트로 표시하기 때문에 스스로 발사한다. 발사에 실제로 책임이 있는 사람은 누구인가? 편향된 오류가 있는 경우 책임이 있는가?
AI/ML에 내재된 편향
연구에 따르면 기계는 인간보다 오류를 일으킬 가능성이 낮다. 그러나 연구는 또한 기계 학습에서 인간 “교사”가 기계를 가르칠 때 편향이 있음을 입증한다. DoD의 AI 5가지 윤리 원칙은 기존의 편향을 언급하며 “부서에서는 AI 기능에서 의도하지 않은 편향을 최소화하기 위해 의도적으로 조치를 취할 것이다”라고 말한다. 이미 증명된 연구를 통해 얼굴 인식 애플리케이션에서 색인에 대한 편향이 있는 것을 알 수 있다. 기계가 결정할 수 있도록 코드를 생성하는 사람은 편향을 가질 수 있다. 이것은 코드를 생성하는 사람이 스스로 편향이 있다는 것을 인식하지 못했기 때문에 의도하지 않은 편향일 수 있다.
그렇다면 어떻게 편향을 제거할 수 있는가? AI 출력은 입력만큼 좋다. 따라서 제어가 필요하다. 데이터가 흐르는 것을 제어해야 한다. 이것이 AI 결과를 덜 유효하게 만드는 것이다. 개발자는 편향을 제거하기 위해 지속적으로 코드를 다시 작성해야 한다.
기술의 최선의 사용을 정의하기 위한 세계
기술 자체는 좋지도 나쁘지도 않다. 한 국가가 이를 사용하는 방식이 좋든 나쁘든 의도적으로 잘못된 결과를 초래할 수 있다. 기술이 인간의 삶에 영향을 미치는 방식으로 발전함에 따라 세계는 적절한 행동을 정의하기 위해 함께 일해야 한다. AI 애플리케이션에서 인간을 제거하면 발사하기 전에 멈추는 그.pause, 우리를 지導하는 道德羅盤; 발사하기 전에 멈추는 그.pause, “이것이 옳은가?”라고 질문한다. 기계는 발사하도록 가르쳐졌기 때문에 그.pause를 가지지 않는다. 그래서 질문은, 미래에 세계가 이것을 허용할 것인가? 기계가 전투 결정할 수 있도록 허용하는 데 얼마나 далеко 갈 것인가?












