Connect with us

์ž๋™ํ™” ํŽธ์•ˆํ•จ: ์ธ๊ฐ„์„ ๋‹ค์‹œ ๋ฃจํ”„์— ๋„ฃ๋Š” ๋ฐฉ๋ฒ•

์‚ฌ์ƒ ๋ฆฌ๋”

์ž๋™ํ™” ํŽธ์•ˆํ•จ: ์ธ๊ฐ„์„ ๋‹ค์‹œ ๋ฃจํ”„์— ๋„ฃ๋Š” ๋ฐฉ๋ฒ•

mm mm

사건의 극적인 전환에서, 로보택시(Robotaxis), 인간 운전手を 필요로 하지 않는 자율 주행 자동차가 최근 샌프란시스코에서 출시되었습니다. 7시간 동안의 논쟁적인 공청회 후, 캘리포니아 공공 유틸리티 위원회에 의해 결정이 내렸습니다. 항의에도 불구하고, 공기 중에 필연性的 느낌이 있습니다. 캘리포니아는 2022년 초부터 제한을渐進的に 완화해 왔습니다. 새로운 규칙은 허가된 두 회사 – 알파벳의 웨이모(Waymo)와 GM의 크루즈(Cruise) – 에게 이 택시를 도시의 7제곱마일 이내의 모든 곳으로 보내고, 승객에게 요금을 청구할 수 있도록 합니다.

자율 주행 택시의 아이디어는 두 가지 상반되는 감정을 불러일으킵니다: 흥奮(“텍시를 훨씬 낮은 비용으로!”)과 두려움(“그들이 나를 หร은 나의 아이들을 칠까?”). 따라서 규제 기관은 종종 사고가 발생하기 전에 승객이 개입하여 제어를 관리할 수 있도록 자동차를 테스트하도록 요구합니다. 그러나 실시간으로 시스템을 재정의하기 위해 준비된 인간이 있는 것은 안전을 보장하는 가장好的 방법이 아닐 수 있습니다.

실제로, 미국에서 자율 주행 자동차 사고와 관련된 18건의 사망자(올해 2월 현재) 중 모두가 자동차 내부 또는 원격으로 어떤 형태의 인간 제어가 있었습니다. 이 중 가장 유명한 사고는 2018년 애리조나 주 템피에서 밤 늦게 발생했습니다. 자동 우버 테스트 차량이 49세의 엘레인 헤르츠버그(Eaine Herzberg)라는 여성을 죽였습니다. 그녀는 자전거를 타고 도로를 건너고 있었습니다. 승객 좌석에 있던 인간 운전자는 아래를 보고 있었고, 차량은 충돌 1초 전까지 경고하지 않았습니다. 그들은 너무 늦게 핸들을 잡았습니다. 사고로 인해 우버는 자율 주행 자동차의 테스트를 중단했습니다. 궁극적으로, 우버는 핵심 비즈니스 전략의 일부였던 자동화된 차량 부문을 매각했습니다.

운전자는 자동화 편안함으로 인해 감옥에 갔습니다. 자동화 편안함은 초기 비행 훈련의 날에 처음 발견된 현상입니다. 과신은 AI 시스템에서 빈번한 역동성입니다. 시스템이 càng 자율적일수록 인간 운전자는 그것을 더 신뢰하고 주의를 기울이지 않습니다. 우리는 이러한 기술을 지켜보면서 지루해합니다. 사고가 실제로 발생할 때, 우리는 예상하지 못하고 kịp시간에 반응하지 못합니다.

인간은 위험 전문가인 론 덤보(Ron Dembo)가 “위험思考”이라고 부르는 방식으로 자연스럽게 적합합니다. 이것은 답이 명확하지 않을 때, 우리가 느려지거나 멈추어야 한다는 것을 인식하는 능력입니다. 위험思考은 자동화된 시스템에 필수적이며, 이것은 딜레마를 생성합니다. 인간은 루프에 있기를 원하지만, 자동화된 시스템에 너무 편안하게 의존할 때, 우리를 제어에 넣으면 실제로 상황을 더 악화시킬 수 있습니다.

그러면 자동화된 시스템의 개발자는 어떻게 이 딜레마를 해결하여 샌프란시스코에서 진행 중인 실험과 같은 실험이 긍정적으로 끝나도록 할 수 있을까요?答案은 충돌 순간 전에 뿐만 아니라 설계 및 개발의 초기 단계에서 더 많은 주의입니다. 모든 AI 시스템은 체크되지 않을 때 위험을 포함합니다. 자율 주행 자동차는 인간이 운전하는 자동차보다 평균적으로 더 안전할지라도 위험에서 자유로울 수 없습니다.

우버 사고는 의도적으로 위험思考을 하지 않을 때 발생하는 것을 보여줍니다. 이를 위해서는 창의적인 마찰이 필요합니다. 즉, 이러한 시스템이 출시되기 훨씬 전에 여러 인간의 관점을 도입하는 것입니다. 즉, AI 시스템의 적용이 아닌 의미를 생각하는 것입니다. 이는 기술에 직접적으로 영향을 받는 커뮤니티의 관점이 필요합니다.

웨이모와 크루즈는 모두 통계적 확률을 근거로 차량의 안전 기록을 옹호했습니다. 그럼에도 불구하고, 이 결정은 샌프란시스코를 살아있는 실험으로 만들었습니다. 결과가 집계될 때, 올바른 데이터를 캡처하고, 성공과 실패를 공유하며, 영향을 받는 커뮤니티가 전문가, 정치인, 비즈니스맨과 함께 의견을 나누는 것이 매우 중요할 것입니다. 즉, 모든 인간을 루프에 유지하는 것입니다. 그렇지 않으면, 우리는 자동화 편안함 – AI 시스템에 의사 결정 위임의意志 – 를 매우 큰 규모로 위험에 빠뜨릴 수 있습니다.

줄리엣 파월과 아트 클라이너는 새로운 책 AI 딜레마: 책임 있는 기술의 7가지 원칙의 공동 저자입니다.

Juliette Powell๋Š” ์ €์ž์ด๋ฉฐ 9,000๊ฐœ์˜ ์ƒ๋ฐฉ์†ก์„ ์ œ์ž‘ํ•œ ํ…”๋ ˆ๋น„์ „ ํฌ๋ฆฌ์—์ดํ„ฐ์ด์ž ๊ธฐ์ˆ ์ž ๋ฐ ์‚ฌํšŒํ•™์ž์ž…๋‹ˆ๋‹ค. ๋˜ํ•œ ๋ธ”๋ฃธ๋ฒ„๊ทธ TV/๋น„์ฆˆ๋‹ˆ์Šค ๋‰ด์Šค ๋„คํŠธ์›Œํฌ์˜ ํ•ด์„ค์ž์ด๋ฉฐ ์ด์ฝ”๋…ธ๋ฏธ์ŠคํŠธ์™€ ๊ตญ์ œ ๊ธˆ์œต ๊ณต์‚ฌ์—์„œ ์กฐ์งํ•œ ์ปจํผ๋Ÿฐ์Šค์˜ ์—ฐ์‚ฌ์ž…๋‹ˆ๋‹ค. ๊ทธ๋…€์˜ TED ๊ฐ•์—ฐ์€ ์œ ํŠœ๋ธŒ์—์„œ 13๋งŒ ํšŒ์˜ ์กฐํšŒ์ˆ˜๋ฅผ ๊ธฐ๋กํ–ˆ์Šต๋‹ˆ๋‹ค.

Art Kleiner is a writer, editor and futurist. His books include The Age of Heretics, Who Really
Matters, Privilege and Success, and The Wise. He was editor of strategy+business, the
award-winning magazine published by PwC.