Connect with us

์„ธ๊ณ„ ์ •๋ถ€์—์„œ AI์˜ ๋‹ค์–‘ํ•œ ์šฉ๋„

์‚ฌ์ƒ ๋ฆฌ๋”

์„ธ๊ณ„ ์ •๋ถ€์—์„œ AI์˜ ๋‹ค์–‘ํ•œ ์šฉ๋„

mm

본질적으로 인공 지능은 컴퓨터가 인간이 전통적으로 수행하는 작업을 수행하는 것을涉及한다. AI의 인기는 빠르게 성장하고 Gartner는 이 소프트웨어 시장은 2022년 말까지 62억 달러에 달할 것으로 예상한다.

AI 소프트웨어는 프로그래머 주도형이거나 데이터 주도형이다. 즉, 사람이 입력한 정보를 평가하거나 샘플 데이터 세트에서 값을 분석한다.

사람들은 매일 소프트웨어에서 AI를 사용하고 있으며, Amazon의 Alexa와 Apple의 Siri를 포함하여 세계 정부도 다양한 목적으로 AI를 사용한다.

정부가 AI를 사용하는 이유는 무엇인가?

정부가 인공 지능을 사용하는 이유는 다음과 같다:

  • 시간과 돈을 절약
  • 효율성을 높임
  • 인간의 오류 가능성을 줄임
  • 편리함

세계 정부가 AI를 사용하는 방법

AI는 미래의 기술이 아니다. 그것은 지금 일어날 뿐이다. 그러나 그것은 텔레비전 쇼 또는 영화에서 보이는 것과는 다를 수 있다.

세계 정부는 인공 지능을 주도하고 있다. 세계 정부에서 AI의 다양한 용도는 다음과 같다:

건강 서비스

정부는 접촉 추적을 통해 질병의 확산을 모니터링할 수 있으며, 이는 다양한 위치에서 환자의 증상을 크로스 트래킹하는 것을 포함한다. AI 기술은 또한 질병 발병이 발생할 수 있을 때 사람들에게 경고할 수 있다.

AI는 또한 보다 일반적인 건강 서비스에 사용될 수 있다. 예를 들어, AI는 호주에서 병원에서 패혈증을 감지하는 데 사용되었다.

범죄 예측

AI 기술은 경찰의 열 지도에서 패턴을 감지하여 범죄가 발생할 수 있는 위치를 예측할 수 있다. 그러나 이러한 방식으로 AI를 사용하는 것은 논쟁의 여지가 있다. AI 자체는 편향되지 않지만, 받은 데이터가 편향된 결과를 생성할 수 있다.

예를 들어, 연구에 따르면 흑인 성인은 5.9배 더 많이 투옥되며, 히스패닉은 3.1배 더 많이 투옥된다. AI 기술은 이러한 통계를 편향된 것으로 인식하지 않는다. 대신, 알고리즘은 흑인 미국人が 범죄를 더 많이 저지를 가능성이 높다고 가정한다. 따라서 AI 기술은 데이터가 그것을 훈련시키는 경우에 차별적인 행동을 강화할 수 있다.

감시

정부에서 AI 기술을 사용하는 가장 잘 알려진 방법 중 하나는 감시이다. 정부는 얼굴 인식 소프트웨어를 사용하여 시민을 모니터링하고 비디오 또는 이미지에 기반하여 개인을 식별할 수 있다. 일부 국가, 중국과 같은 국가,는 다른 지역에 수출하기 전에 자체 감시 기술을 완벽하게 개발하고 있다.

2017년과 2019년 사이에, 전 세계 64개국이 얼굴 인식 시스템을 채택했다고 주장했다. 많은 사람들이 감시 목적으로 AI를 사용하는 것의 윤리를 вопрос한다. 개인 정보 보호 문제를 인용한다.

자율 주행 자동차

자율 주행 셔틀은 도시, 캠퍼스, 지역 사회 및 기타 위치에서 미리 정의된 경로로 승객을 수송하는 데 AI 소프트웨어를 사용한다. 자율 주행 자동차와 셔틀을 사용하여 도로 안전성을 높이는 기회가 많다.

소셜 미디어 모니터링

인공 지능은 트위터 피드를 모니터링하여 자동차 사고가 발생한 위치와 시간을 식별할 수 있다. 이는 정부가 교통 흐름과 사고로 인한 탄소 배출을 다루는 데 도움이 되며, 시민을 안전하게 유지하는 데에도 도움이 된다.

이 기술은 응급 대응자와 응급 직원을 사고 현장에 더 빠르게 도착하도록 도울 수 있다.

개인화된 교육

학생들은 서로 다른 속도로 학습하며, AI는 교실이나 집에서 학생들이 학습하는 데 도움이 될 수 있다. AI 기술은 또한 학생들의 진행 상황을 추적하고 약점이 있는 위치를 결정하는 데 도움이 될 수 있다.

サイバーセキュリティ

サイバーセキュリティ マチュリティ モデル 認定 (CMMC)は、企業을 사이버 공격과 위협으로부터 보호한다. AI와 CMMC를 결합하면 정부를 사이버 공격과 다양한 위험의 심각성을 결정하는 데 더 효율적인 방법이 될 수 있다.

정부에서 AI를 사용하는 위험

정부에서 AI를 사용하는 두 가지 주요 문제는 가능한 오류와 “블랙 박스” 문제이다.

AI는 데이터 입력 또는 데이터 분석 오류의 가능성을 줄일 수 있다. 그러나 어떤 알고리즘도 완벽하지 않다. 따라서 실패의 위험이 있다.

다음으로, 블랙 박스 문제가 있다. AI 알고리즘이 더 복잡해짐에 따라 과학자들이 특정 결론에 도달하기 위해 어떻게 도달했는지 따라가기가 더 어려워진다. 입력된 데이터와 결과를 볼 수 있지만, 결과에 도달하기 위해 취한 단계는 볼 수 없다.

정부에서 AI를 사용하는 것과 관련된 더 많은 위험은 다음과 같다:

고용

사람들이 인공 지능의 단점을 생각할 때, 그들은 고용에 미치는 영향에 대해 생각한다. AI에 대한 의존도가 증가함에 따라 일자리 가용성이 감소할 가능성이 있다. 매우 접근하기 쉬운 예는 일본과 싱가포르에서 로봇이 라이브 서버를 대체하는 것이다.

편향

앞서 언급했듯이, AI는 받은 데이터에 기반하여 편향된 가정할 수 있다. 그것이 대규모로 사용될 때, 그것은 라이브되기 전에 엄격한 테스트를 거쳐야 한다.

개인 정보 보호

정부는 AI가 저장하는 모든 정보가 안전하게 유지되고, 특히 개인 정보가 관련된 경우에는 더욱 그렇다.

정부에서 인공 지능을 안전하게 사용하는 방법

인공 지능의 황금 규칙은 그것을 만드는 사람만큼만 윤리적이라는 것이다. 세계 정부가 비용 효율성을 높이고 생산성을 증가시키기 위해 AI를 사용하는 많은 기회가 있다. 그러나 AI 기술이 점점 더广泛하게 사용됨에 따라 고려해야 할 단점도 있다.

Zac Amos๋Š” ์ธ๊ณต ์ง€๋Šฅ์— ์ค‘์ ์„ ๋‘” ๊ธฐ์ˆ  ์ž‘๊ฐ€์ž…๋‹ˆ๋‹ค. ๊ทธ๋Š” ๋˜ํ•œ ReHack์˜ ํ”ผ์ฒ˜ ์—๋””ํ„ฐ๋กœ, ๊ทธ์˜ ๋‹ค๋ฅธ ์ž‘ํ’ˆ์„ ์ฝ์„ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.