Connect with us

ソートリーダー

デザインによる責任 – なぜAIは人間優先でなければならないのか

mm

人工知能は、私たちの一日を形作るデジタル体験を変革しています。パーソナライズされた製品の勧めや予測医療、自動運転、さらには遊園地の待ち行列まで、AIはこれらの体験をより安価に、効率的に、そして楽しくしています。少なくとも、それが約束されていることです。

しかし、AIの「失敗」と呼ばれるものに出くわすことがよくあります。ユーザーが誤解された、挫折した、または単に理解されなかったときのことです。信頼が崩壊すると、AIが真正に有意義で効果的な存在になる可能性も崩壊します。

公衆の信頼が崩壊しています。なぜでしょうか。ほとんどのシステムは人間の経験を念頭に置いて設計されていないからです。 скорость、拡張性、利益性が優先されているのです。これは、AI投資を二倍に増やしているすべての企業にとって、大きな懸念事項になるべきです。

信頼を築くには、企業は一時停止して、より深い質問をする必要があります。《私たちはこのシステムをなぜ構築していますか?》《それを最初から構築する必要があるのでしょうか?》簡単に言えば、AIを人間のニーズに応えるように設計しているのでしょうか。あるいは、人間を機械の論理に適応させるように設計しているのでしょうか。

AIとの信頼格差

AIは、技術的な環境で孤立して開発されることがよくあります。そこでは、成功は精度や速度で測られるのですが、社会的影響や使いやすさでは測られません。信頼の核心要素である倫理的思考は、自動的にAI開発パイプラインに組み込まれています。この断絶により、理論的には革新的なシステムが生まれるかもしれませんが、実践では期待を裏切ることになります。

例えば、エア・カナダのチャットボットは、顧客に哀悼料金のポリシーについて誤った情報を提供し、会社はチャットボットが言ったことについて責任を負わないと主張しました。あるいは、メタのAIチャットボットは、検索結果で事実に反する発言をしました。これらの例は、技術的な欠陥を超えて、共感、安全対策、現実世界の文脈を考慮してAIアプリケーションを設計することに失敗していることを示しています。

公衆はこれに気づいています。 ピュー・リサーチ・センターによると、59%のアメリカ人と55%のAI専門家は、米国企業がAIを責任を持って開発することについて、ほとんど信頼していません。これは、無視できない信頼格差です。

人間中心のデザインは贅沢ではない

デザインはAIのウィンドウ飾りではありません。AIの挙動と、エンドユーザーによる認識に基づくものです。人間中心のデザインは、設計対象者を理解することから始まります。彼らの目標、挫折、価値観、生活の現実です。

設計プロセス中に、技術が人間のニーズを満たすように、逆に人間が技術に適応するように設計しているかどうかを確認するために、非常に具体的な質問をすることが不可欠です。以下を定義します:

  • 誰のために設計していますか?
  • 彼らの目標、価値観、課題は何ですか?
  • 彼らは感情的に、機能的にシステムとどのように関わるのか?
  • 製品は信頼できるものであり、約束通りに動作しますか?
  • それはすべての種類の人々に対して、包括性とアクセシビリティを促進していますか?

これらは抽象的な質問ではありません。AIが野外でどのように実行されるかを直接形作ります。ヘルスケア、セキュリティ、教育などのハイリスクな状況では、システムが包括的で公平であるか、混乱を招き、有害であるかを決定することができます。

より良いデザインの見方

デザイナーは、プロトタイピング、テスト、イテレーションのプロセスを通じて、人間のニーズと機械の能力の間を架けます。これにより、製品が使用者にとって意味のあるものになることが保証されます。これには、AIがどのようにコミュニケーションをとるか、どのような決定を自動化するか、ユーザーにどれだけのコントロールを提供するかについての質問が含まれます。

例えば、遊園地を考えてみましょう。 AIは今夏、待ち時間を短縮し、体験をパーソナライズし、群衆の流れを管理するために導入されます。これは、有望なユースケースです。しかし、成功は単にスループットだけではありません。よく設計されたシステムは、効率性だけではなく、人間の経験を優先します。つまり、透明なメッセージング、直感的なインターフェイス、明確なオプトイン、スマートフォンを持たない家族やアクセシビリティのニーズがあるゲストなどのユニークなニーズを持つユーザーのためのフォールバックオプションが必要です。

ここでの機会は、ロジスティクスビジネス運営を最適化することだけではありません。喜びを高め、摩擦を減らし、魔法のような、機械的なものではなく、共有された体験を創造することです。これは、デザインの機会です。

人間の要素をテストする

人間中心のAIデザインでは、テストは非常に重要です。潜在的なエンドユーザーをプロセスに早く、頻繁に参加させることが理想的です。目的は、潜在的な盲点を特定することです。ユーザーがシステムを理解したり信頼したりできない場合、システムは失敗しています。バックエンドがどれほど印象的であっても、関係ありません。

テストは、アクセシビリティも保証します。これは、AIドリブンの体験でよく見落とされるものです。チャットボットは技術的に機能しているかもしれませんが、神経発達障害のあるユーザーや非ネイティブスピーカーにサービスを提供しない場合、真正に機能的ではありません。包括的なデザインは、周辺部のみに利益をもたらすのではなく、誰にとっても製品を強化します。

責任はデザインから始まる

ポリシーは、境界を設定し、最悪の結果を防ぐのに役立ちます。したがって、EU AI法AIビル・オブ・ライツの青写真などのフレームワークは、重要なステップです。しかし、コンプライアンスは床です。デザインは、天井に到達する方法です。

企業は、AIシステムを構築するために、チェックリストを超えて、尊厳、代理、監視をサポートするAIシステムを構築する必要があります。つまり、人間の判断を完全に自動化するという誘惑に抵抗し、代わりにそれを補強するツールを設計するということです。責任あるAIは、人間のコントロールを消去しません。実際、人間のコントロールを増幅します。

この作業は技術的なものだけではありません。デザイナー、エンジニア、ポリシーエキスパート、倫理学者などの多分野にわたるチームが、最初の日から一緒に作業する必要があります。つまり、人々と一緒に設計することです。 人々のために設計するのではなく。

AIの進路を形作るデザイナーの役割

デザイナーは、AIの進路を形作る上で、独自の役割を果たします。デザイナーは、機械の構造化された論理と人間の生活の複雑さの両方を流暢に話すことができるトランスレーターです。デザイナーは、データだけでは捉えられない、摩擦点、感情的信号、社会的影響を認識するように訓練されています。

技術的なデータに合わない質問を主張することも、デザイナーの役割です。例えば:

  • これは誰かをどのように感じさせるのか?
  • ユーザーはコントロールしていますか?
  • 何かが間違ったときに何が起こるのか?

デザインは、AIパイプラインの最後に「見た目を良くする」ために導入されることがよくあります。しかし、デザインの真正の力は戦略的なものです。問題が最初にどのように定義されるかを形作るべきです。インターフェイスがどのように見えるかだけではありません。

人間優先、機械優先ではない

AIは技術的な課題だけではありません。デザインの課題でもあります。挑戦するには、最初から人間の価値観を中心に据える必要があります。

人間中心のAIは贅沢ではありません。必要不可欠です。信頼できる、信頼性の高い、偏見のない、監査可能な、コンプライアントなシステムを作成します。さらに、エンドユーザーに利益をもたらし、人間の生産性と潜在能力を高める製品を構築します。

私たちはツールを持っています。私たちは責任を持っています。技術が人間を支配するのではなく、人間に奉仕する未来を設計する責任があります。その未来は、デザインから始まります。

ノエル・カニングハムは、Nagarroのグローバルデザインスタジオのマネージングディレクターです。彼女は、人間中心のデザインの熱心な擁護者であり、デザインの力が革新的な製品、体験、そして全体的なビジネスエコシステムを創造することを強く信じています。2つの十年間、彼女はビジネス結果を牽引するデザイン主導のイニシアチブを擁護することに彼女のキャリアを捧げてきました。

NagarroのグローバルデザインスタジオのMDとして、彼女は共感、創造性、そして綿密な実行を通じて価値を創造するチームを率いることに深くコミットしています。Nagarroは、思慮深く設計された戦略的なソリューションに焦点を当てており、会社の収益性に影響を与えると同時に、より重要な顧客の生活に影響を与えようと努めています。 Nagarroに入社する前に、彼女はOrganizing for Action (barackobama.com)のデザインディレクター、およびシカゴ芸術大学校の講師/兼任教員を務めました。