부본 첨단 AI 기술이 제시하는 윤리적 문제 - 사고 리더 - Unite.AI
Rescale 미팅 예약

사상가

첨단 AI 기술이 제시하는 윤리적 문제 – 사고 리더

mm

게재

 on

Alfred Crews, Jr. 인텔리전스 및 보안 부문 부사장 겸 최고 고문 (주)비에이시스템즈

올해 초, 세계적인 유행병이 발생하기 전에 저는 찰스턴에서 열린 The Citadel의 정보 윤리 컨퍼런스에 참석하여 국가 안보 보호와 관련된 정보 수집 윤리 주제를 논의했습니다. 방위산업에서는 특히 인공지능(AI)과 머신러닝(ML) 분야에서 지식, 컴퓨팅, 첨단 기술이 확산되고 있습니다. 그러나 정보 수집이나 실시간 전투의 맥락에서 AI를 배포하는 경우 심각한 문제가 발생할 수 있습니다.

양자 컴퓨팅과 결합된 AI는 위험을 나타냅니다.

우리가 앞으로 나아갈 길을 질문하고 분석하고 결정해야 하는 것은 전시 의사 결정 과정에서 양자 컴퓨팅 기능과 결합된 AI를 사용할 때입니다. 예를 들어 터미네이터를 기억하십니까? 우리의 기술이 비약적으로 발전함에 따라 Skynet이 제시한 현실이 우리 앞에 있습니다. "스카이넷이 우리를 잡으러 오는 건가요?" 나와 함께 추억의 길을 거닐어 보세요. AI 기계는 인간의 지시 없이 스스로 생각하고 결정을 내릴 수 있는 능력을 가지고 있었기 때문에 대신했습니다. 기계는 인간이 벌레라는 사실을 알아차리자 인류를 파괴하기 시작했습니다. 오해하지 마세요. AI는 큰 잠재력을 가지고 있지만 관련된 위험 요소 때문에 제어 매개변수가 있어야 한다고 생각합니다.

AI의 윤리적 모호성과 철학적 딜레마

이것이 바로 미국 국방부(DoD)가 자체적으로 AI 윤리 원칙, AI를 사용하면 새로운 윤리적 모호성과 위험이 발생하기 때문입니다. AI를 양자 컴퓨팅 기능과 결합하면 의사 결정을 변경하는 능력과 통제력을 잃을 위험이 오늘날 우리가 깨닫는 것보다 더 커집니다. 양자 컴퓨팅은 인간의 두뇌가 할 수 있는 것보다 훨씬 더 빠르고 정확하게 계산을 기하급수적으로 더 많이 할 수 있기 때문에 인간 두뇌의 운영 체제를 부끄럽게 만듭니다.

또한 컴퓨팅과 결합된 AI의 사용은 철학적 딜레마를 제시합니다. 어느 시점에서 세상은 기계가 자신의 의지를 갖도록 허용할 것입니다. 그리고 만약 기계가 스스로 생각하도록 허용된다면 그것은 기계 자체가 자각하게 되었다는 것을 의미합니까? 자기 인식이 삶을 구성합니까? 사회로서 우리는 아직 이 상황을 어떻게 정의할지 결정하지 못했습니다. 따라서 오늘날과 같이 인간이 제어하지 않고 스스로 조치를 취하는 기계는 결과를 초래할 수 있습니다. 기계가 화재를 멈추기 위해 인간의 개입을 무시할 수 있습니까? 기계가 스스로 작동한다면 플러그를 뽑을 수 있을까요?

제가 보기에 수비적인 관점에서 AI를 사용하는 것은 쉽습니다. 그러나 공격으로 전환하는 것이 얼마나 쉬울까요? 공격 시 기계는 현장에서 전투 발사 결정을 내릴 것입니다. 적을 격추시키는 기계가 제네바 협약과 무력분쟁법을 위반하는 것입니까? 빠른 속도로 이 공간으로 이동하면서 세계는 전투에서 AI와 양자 컴퓨팅을 사용하는 것이 현재 시행 중인 법률에 적용되어야 한다는 데 동의해야 합니다.

DoD는 자율 시스템과 함께 AI를 사용할 때 입장을 가지고 있으며 항상 의사 결정 프로세스에 참여하는 사람이 있을 것이라고 말합니다. 사람은 방아쇠를 당겨 무기를 발사하는 마지막 호출을 할 것입니다. 그것이 우리의 규칙이지만 적이 다른 경로를 택하기로 결정하고 AI 가능 기계가 모든 최종 결정을 내리게 하면 어떻게 될까요? 그러면 우리가 논의한 것처럼 이미 더 빠르고 더 똑똑하고 더 정확한 기계가 이점을 갖게 될 것입니다.

AI와 안면인식 기능을 탑재한 드론을 보자. 드론은 테러리스트로 낙인이 찍힌 미리 정해진 표적 때문에 스스로 발포한다. 실제로 발사에 대한 책임은 누구에게 있습니까? 편향된 실수가 있는 경우 책임이 있습니까?

AI/ML에 적용된 편향

연구에 따르면 기계는 인간보다 실수할 가능성이 적습니다. 그러나 연구는 또한 기계를 가르치는 인간 "교사"에 기반한 기계 학습에 편향이 있음을 증명합니다. DoD의 XNUMX가지 AI 윤리 원칙은 "국무부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것"이라고 말하면서 기존 편향을 언급했습니다. 우리는 이미 알고 있습니다. 입증된 연구 안면 인식 응용 프로그램을 사용할 때 오탐지가 있는 유색 인종에 대한 편견이 있습니다. 사람이 기계에게 결정을 내리는 방법을 가르치는 코드를 만들면 편견이 생길 것입니다. 이는 AI를 만드는 사람이 자신 안에 존재하는 편견을 인식하지 못했기 때문에 의도하지 않은 것일 수 있습니다.

그렇다면 어떻게 편견을 없앨 수 있을까요? AI 출력은 입력만큼만 좋습니다. 따라서 컨트롤이 있어야 합니다. 데이터 유입을 제어해야 합니다. 그렇게 하면 AI 결과의 유효성이 떨어질 수 있기 때문입니다. 개발자는 편견을 없애기 위해 지속적으로 코드를 다시 작성해야 합니다.

최고의 기술 사용을 정의하는 세계  

기술 자체는 좋은 것도 나쁜 것도 아닙니다. 그것은 국가가 최선의 의도를 취하고 잘못될 수 있는 그것을 사용하는 방법입니다. 기술이 인간의 삶에 영향을 미치는 방식으로 발전함에 따라 세계는 적절한 조치를 정의하기 위해 협력해야 합니다. AI 응용 프로그램에서 인간을 방정식에서 제외하면 우리를 인도하는 도덕적 나침반인 방아쇠를 당기기 전에 잠시 멈춥니다. 우리가 멈추고 "이게 맞나요?"라고 물을 때 그 멈춤. 참여하도록 학습된 기계는 일시 중지하지 않습니다. 그래서 문제는 미래에 세상이 이것을 지지할 것인가 하는 것입니다. 기계가 전투 결정을 내리도록 세상이 어디까지 갈 수 있을까요?

Alfred Crews, Jr.는 인텔리전스 및 보안 부문의 부사장 겸 수석 고문입니다. BAE 시스템즈, 미 국방부, 정보 커뮤니티, 연방 민간 기관 및 전 세계에 배치된 군대를 위해 항공, 지상, 해상, 우주 및 사이버 도메인 전반에 걸쳐 대규모 시스템 엔지니어링, 통합 및 유지 서비스를 제공하는 선두 업체입니다. Crews는 해당 부문의 법률, 수출 통제 및 윤리 기능을 감독합니다.