Connect with us

๋””์ž์ธ์— ์˜ํ•œ ์ฑ…์ž„ – ์™œ AI๋Š” ์ธ๊ฐ„ ์ค‘์‹ฌ์ด์–ด์•ผ ํ•˜๋Š”๊ฐ€

์‚ฌ์ƒ ๋ฆฌ๋”

๋””์ž์ธ์— ์˜ํ•œ ์ฑ…์ž„ – ์™œ AI๋Š” ์ธ๊ฐ„ ์ค‘์‹ฌ์ด์–ด์•ผ ํ•˜๋Š”๊ฐ€

mm

인공지능은 우리 일상 생활을 정의하는 디지털 경험을 변화시키고 있다. 개인화된 제품 추천과 예측 건강 관리, 자율 주행, 그리고甚至遊樂場 줄까지, AI는 이러한 경험을 더 저렴하고, 효율적이고, 심지어 즐겁게 만들고 있다. 적어도, 그것이 약속이다.

하지만 너무 자주, 우리는 소위 “AI 실패”에 대한 헤드라인을 마주한다. 즉, 사용자가 속았다고 느끼거나, 좌절하거나, 단순히 이해되지 않는 순간이다. 그리고 신뢰가 깨지면, AI가真正로 의미있고 효과적인 잠재력을 발휘할 수 없다.

공공 신뢰가 침식되고 있다. 왜냐하면 대부분의 시스템은 인간 경험을 고려하여 설계되지 않았기 때문이다. 그것들은 빠르기, 확장 가능성, 그리고 이익을 위해 설계되었다. 그것은 모든 규모의 회사들이 AI 투자에 대한 두 배의 우려를 가져야 한다.

신뢰를 구축하기 위해, 회사들은 더 깊은 질문을 해야 한다: 우리가 이 시스템을 왜 만들고 있는가? 그것을 만들어야 하는가? 간단히 말해서, 우리는 인간의 필요를满足하기 위해 AI를 설계하고 있는가, 아니면 인간이 기계 논리에 적응하도록 강요하고 있는가?

AI와의 신뢰 격차

AI는 너무 자주, 기술적인 환경에서 분리되어 개발된다. 여기서 성공은 정확도 또는 속도에 의해 측정되며, 아니라 사회적 영향 또는 사용성에 의해 측정된다. 윤리적 사고, 즉 신뢰의 핵심 구성 요소는 자동으로 AI 개발 파이프라인에 내장되지 않는다. 이 단절은 이론적으로 혁신적인 시스템을 만들지만, 실제로는 부족한 시스템을 만든다.

에어 캐나다의 채팅봇을 예로 들어보자. 그것은 고객에게 애도 요금 정책에 대해 자신있게 잘못된 정보를 제공했으며, 회사에서는 채팅봇이 말한 내용에 대해 책임이 없다고 주장했다. 또는 메타의 AI 채팅봇은 검색 결과에서 사실적으로 부정확한 문장을 제공했다. 이러한 예는 기술적인 결함 이상을暴露한다. 그것은 공감, 안전 가드레일, 실제 상황을 고려하여 AI 응용 프로그램을 설계하지 않은 시스템적인 실패를 暴露한다.

대중은 이를 알아차렸다. Pew Research Center에 따르면, 59%의 미국인과 55%의 AI 전문가들은 미국 회사들이 책임감 있게 AI를 개발하는 것에 대해 거의 신뢰가 없다. 그것은 무시할 수 없는 신뢰 격차이다.

인간 중심 설계는 사치가 아니다

디자인은 AI의 창의적인 외투가 아니다. 그것은 AI가 어떻게 행동하고, 최종 사용자에 의해 어떻게 인식되는지에 대한 기초이다. 인간 중심 설계는 우리가 설계하는 사람들을 이해하는 것으로 시작한다. 즉, 그들의 목표, 좌절, 가치, 그리고 삶의 현실이다.

설계 과정에서 기술이 인간의 필요를满足하는지, 그 반대인지 확인하기 위해 매우 구체적인 질문을 해야 한다. 즉,

  • 우리가 누구를 위해 설계하고 있는가?
  • 그들의 목표, 가치, 그리고 도전은 무엇인가?
  • 그들은 시스템과 어떻게 감정적으로 그리고 기능적으로 상호 작용하는가?
  • 제품은 신뢰할 수 있으며, 그것이 말하는 것을 실제로 하는가?
  • 그것은 모든 종류의 사람들을 위한 포용성과 접근성을 촉진하는가?

이러한 질문은 추상적인 것이 아니다. 그것은 직접적으로 AI가 실제 상황에서 어떻게 수행하는지 결정한다. 그리고, 의료, 보안, 또는 교육과 같은 고위험 상황에서, 그것은 시스템이 포용적이고 공정한지, 또는 혼란스럽고 유해한지 결정할 수 있다.

더 나은 설계는 무엇인가?

디자이너들은 프로토타이핑, 테스트, 그리고 반복을 통해 인간의 필요와 기계 능력을 연결한다. 이것은 제품이 사용자에게 의미가 있는지 확인한다. 이것에는 AI가 어떻게 커뮤니케이션을 하는지, 어떤 결정을 자동화하는지, 사용자에게 얼마나 많은 제어를 제공하는지에 대한 질문이 포함된다.

예를 들어,遊樂場을 생각해 보자. AI는 올 여름 대기 시간을 줄이고, 경험을 개인화하며, 군중 흐름을 관리하기 위해 배치된다. 그것은 유망한 사용 사례이다. 그러나 성공은 효율성만이 아니다. 잘 설계된 시스템은 인간 경험을 우선시해야 한다. 즉, 투명한 메시지, 직관적인 인터페이스, 명확한 선택, 그리고 고유한 필요를 가진 사용자들을 위한 대체 옵션이다(예: 스마트폰이 없는 가족이나 접근성 필요가 있는 손님).

기회는 여기서 사업 운영의 물류를 최적화하는 것이 아니다. 그것은 즐거움을 높이고, 마찰을 줄이고, 마법처럼 느껴지는 공유 경험을 창조하는 것이다. 그것은 디자인의 기회이다.

인간 요소를 테스트하기

인간 중심 AI 설계에서 테스트는 중요하다. 잠재적인 최종 사용자를 프로세스에早く 그리고 자주 참여시키는 것이 이상적이다. 목적은 잠재적인盲点을 식별하는 것이다. 사용자가 시스템을 이해하거나 신뢰할 수 없으면, 시스템은 실패한다. 그것의 백엔드가 얼마나 인상적인지와 상관없이.

테스트는 또한 접근성을 보장한다. 이는 종종 AI驱動 경험에서 간과된다. 채팅봇은 기술적으로 기능적일 수 있지만, 신경 다양성 사용자 또는 비모국어 사용자를 위해 설계되지 않았다면, 그것은真正로 기능적이지 않다. 포용적인 설계는 주변부만이 아니라 모든 사람에게 제품을 강화한다.

책임은 설계에서 시작된다

정책은 경계를 설정하고 최악의 결과를 방지하는 데 도움이 될 수 있다. 따라서 EU AI법AI 권리 청구서 블루프린트와 같은 프레임워크는 중요한 단계이다. 그러나 준수는 바닥이다. 디자인은 우리가 천장에 도달하는 방법이다.

회사들은 책임감 있는 AI 시스템을 구축하기 위해 체크리스트를 넘어설 필요가 있다. 즉, 인간의 존엄성, 能動性, 및 감독을 지원하는 시스템을 설계해야 한다. 책임감 있는 AI는 인간의 판단을 완전히 자동화하지 않는다. 대신, 그것을 강화하는 도구를 설계해야 한다. 책임감 있는 AI는 인간의 제어를消滅하지 않는다. 반대로, 그것을 증폭한다.

이 작업은 기술적인 것이 아니다. 그것은 디자이너, 엔지니어, 정책 전문가, 그리고 윤리학자들이 모두 첫날부터 함께 일하는 것을 필요로 한다. 즉, 사람들과 함께 설계하는 것이지, 사람들을 위해 설계하는 것이 아니다.

AI를 형성하는 디자이너의 역할

디자이너들은 AI의 궤적을 형성하는 고유한 역할을 한다. 그들은 기계의 구조화된 논리와 인간의 삶의 복잡성을 모두 이해하는 번역가이다. 디자이너들은 마찰 점, 감정적인 신호, 그리고 사회적 의미를 인식하도록 훈련된다. 데이터만으로는 포착할 수 없는 것들이다.

기술이 인간의 필요를满족하는지 확인하는 구체적인 질문과 마찬가지로, 디자이너들은 다음과 같은 질문을 주장해야 한다:

  • 이것이 누군가를 어떻게 느끼게 하는가?
  • 사용자가 제어하고 있는가?
  • 일이 잘못되었을 때 무엇이 발생하는가?

디자인은 종종 AI 파이프라인의 끝에 가져와서 “잘 보이게” 만드는 것이 아니다. 그러나 디자인의真正한 힘은 전략적인 것이다. 즉, 문제가 처음으로 정의되는 방법을 형성해야 한다. 단지 인터페이스가 어떻게 보이는지에 대한 것이 아니다.

인간 중심, 기계 중심이 아님

AI는 기술적인 도전만이 아니다. 그것은 디자인 도전이다. 그리고 그것을 충족하기 위해, 우리는 인간의 가치를 처음부터 중심으로 해야 한다.

인간 중심 AI는 사치가 아니다. 그것은 필수이다. 그것은 신뢰할 수 있는, 신뢰할 수 있는, 편향되지 않은, 감사할 수 있는, 그리고 준수하는 시스템을 만든다. 그러나 그것 이상으로, 그것은 최종 사용자에게ประโยชน을 주고, 인간의 생산성과 잠재력을 높이는 제품을 구축한다.

우리는 도구를 가지고 있고, 책임을 가지고 있다. 즉, 기술이 사람들을 위해 설계된 미래를 설계할 수 있다. 그것은 디자인에서 시작된다.

๋…ธ์—˜ ์ปค๋‹์—„์€ Nagarro์˜ ๊ธ€๋กœ๋ฒŒ ๋””์ž์ธ ์ŠคํŠœ๋””์˜ค์˜ ๋งค๋‹ˆ์ง• ๋””๋ ‰ํ„ฐ์ž…๋‹ˆ๋‹ค. ๊ทธ๋…€๋Š” ์ธ๊ฐ„ ์ค‘์‹ฌ ๋””์ž์ธ์˜ ์—ด๋ ฌํ•œ ์˜นํ˜ธ์ž๋กœ, ๋””์ž์ธ์˜ ํž˜์„ ํ†ตํ•ด ํ˜์‹ ์ ์ธ ์ œํ’ˆ, ๊ฒฝํ—˜, ๊ทธ๋ฆฌ๊ณ  ์ „์ฒด ๋น„์ฆˆ๋‹ˆ์Šค ์ƒํƒœ๊ณ„๋ฅผ ๊ตฌ์ถ•ํ•˜๋Š” ๊ฒƒ์„ ๋ฏฟ์Šต๋‹ˆ๋‹ค. 20๋…„ ๋™์•ˆ ๊ทธ๋…€๋Š” ๋น„์ฆˆ๋‹ˆ์Šค ๊ฒฐ๊ณผ๋ฅผ้ฉฑๅ‹•ํ•˜๋Š” ๋””์ž์ธ ์ฃผ๋„์ ์ธ ์ด๋‹ˆ์…”ํ‹ฐ๋ธŒ๋ฅผ ์˜นํ˜ธํ•˜๋Š” ์ž์‹ ์˜ ๊ฒฝ๋ ฅ์„ ๋ฐ”์ณค์Šต๋‹ˆ๋‹ค.

๋…ธ์—˜ ์ปค๋‹์—„์€ Nagarro์˜ ๊ธ€๋กœ๋ฒŒ ๋””์ž์ธ ์ŠคํŠœ๋””์˜ค์˜ MD๋กœ์„œ, ๊ทธ๋…€๋Š” ๊ณต๊ฐ, ์ฐฝ์˜์„ฑ, ๊ทธ๋ฆฌ๊ณ  ์ •๋ฐ€ํ•œ ์‹คํ–‰์„ ํ†ตํ•ด ๊ฐ€์น˜๋ฅผ ์ฐฝ์กฐํ•˜๋Š” ํŒ€์„ ์ด๋„๋Š” ๋ฐ ๊นŠ์ด ํ—Œ์‹ ํ•˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. Nagarro๋Š” ์‚ฌ๊ณ  ๊นŠ๊ฒŒ ์„ค๊ณ„๋œ ์ „๋žต์  ์†”๋ฃจ์…˜์— ์ค‘์ ์„ ๋‘๊ณ  ์žˆ์œผ๋ฉฐ, ํšŒ์‚ฌ์˜ ์ด์ต๊ณผ โ€” ๋” ์ค‘์š”ํ•˜๊ฒŒ๋Š” ๊ณ ๊ฐ์˜ ์‚ถ์— โ€” ์˜ํ–ฅ์„ ๋ฏธ์น˜๋ ค ํ•ฉ๋‹ˆ๋‹ค. Nagarro์— ํ•ฉ๋ฅ˜ํ•˜๊ธฐ ์ „์—, ๊ทธ๋…€๋Š” Organizing for Action (barackobama.com)์˜ ๋””์ž์ธ ๋””๋ ‰ํ„ฐ์™€ ์‹œ์นด๊ณ  ์˜ˆ์ˆ  ํ•™๊ต์˜ ๊ฐ•์‚ฌ/๋ถ€์† ๊ต์ˆ˜๋กœ ์ผํ–ˆ์Šต๋‹ˆ๋‹ค.