

ロボティクスは、工場の床や研究ラボに限定されなくなった。より興奮する道を歩んでいる。ロボティクスは、個人に自律性と生活の質を維持することを可能にしている。企業にとっての機会は実在するが、これらのシステムが人間の尊厳を尊重する方法で設計、導入、維持されることを保証する責任もある。これは、空虚なミッション声明や未来的なビジョンについてではない。これは、ロボティクスが人のために、人のためにではなく、機能するようにするための現実的な選択についてである。人から始め、機械から始めるのではないロボティクスにおける誘惑は、ハードウェアまたはAIの機能から始めて、それをどこかに導入することである。エシカルな設計は、そのプロセスを逆転させる。たとえば、支援ロボット、モビリティ補助具、社会的伴侶、または日常タスクを支援するデバイスを開発または調達している場合は、特定の文化的および規制的コンテキストにおける予定ユーザーの実際のニーズをマッピングすることから始める。フィンランドの引退コミュニティ向けに設計されたロボットは、イタリアのリハビリテーションクリニックで使用されるロボットとは異なる期待を持つことになる。言語サポート、物理的なやり取りの規範、プライバシー期待は、世界中で大きく異なる。代表的なユーザーをワークショップやプロトタイプに参加させることは、倫理的なことだけでなく、競争上の優位性でもある。PAL Roboticsは、ローカライゼーションを成功させた企業の例である。彼らのパイロットスキームは、ユーザーインターフェイスから物理的な動作や文化的関連性まで、ローカライゼーションを実証し、さまざまなヨーロッパのコンテキストでより直感的で効果的なロボットを作成した。透明性を優先する多くのヨーロッパの規制当局は、すでに「ブラックボックス」ロボティクスは、脆弱な集団を含むコンテキストでは受け入れられないことを示唆している。ユーザーとその家族は、ロボットが何ができるか、できないか、どのように決定を下すか、収集したデータがどうなるかを、平易な地元の言語で理解する必要がある。同様に、2024年に英国で導入されたPSTI法規制では、標準のデフォルトネットワークアクセスパスワードは許可されていないため、ロボットがWi-Fiネットワークに接続される必要があるため、さらなる規制が増えることは当然である。たとえば、ケアアシストロボットがマシンビジョンを使用して転倒を検知する場合、その精度レート、間違った場合の対応、誰が通知されるかを明確にする。技術的なPDFにそれを埋め込まないで、デバイス上で複数の形式でアクセス可能にして、ユーザーのフィードバックを受け付け、継続的に改善する。透明性は、ロボットと一緒に働く専門スタッフとの信頼も築く。彼らがロボットの限界を理解している場合、回避するのではなく、効果的に統合する可能性は高い。優雅な失敗を設計するどのシステムも完璧ではない。エシカルロボティクスは、成功だけを計画するのではなく、間違ったときのことを計画する。支援ロボットは、安全性や尊厳を損なわない方法で失敗するように設計する必要がある。たとえば、給食に使用されるロボットアームが故障した場合、安全な位置に固定され、人間のオペレーターにすぐに通知される。モビリティロボットが接続を失った場合、危険な動作を試みるのではなく、安定した構成で停止する。企業は、テスト中に「失敗ドリル」を実行し、センサーの故障、電力喪失、または予期せぬ人間の行動をシミュレートし、システムがどう対応するかを文書化する必要がある。これにより、損害を軽減し、ドイツやオランダなどの厳格な製品安全基準を持つ市場での責任を回避できる。データ倫理について慎重に支援およびヘルスケアロボティクスでは、収集されるデータは親密なものとなる。動きのパターン、話し手、顔の表情、感情状態など。必要なデータだけを保存し、必要な期間だけ保存する。削除を容易にし、検証可能にする。明示的な同意なしに商業分析のためにデータを流用しない。同意は、特にユーザーの認知能力が時間の経過とともに変化するケア設定では、単なるチェックボックスではなく、継続的な対話の一部であることを覚えておく。ロボティクスシステムがサードパーティのAIサービスを使用する場合、同じ倫理的および法的基準を満たしていることを確認する。たとえば、英国情報委員会が定めた基準。サブコントラクターの違反は、ブランドを損なう可能性があり、規制当局の注意を引く。Stealth Roboticsのような熟練したロボティクスプロバイダーから学ぶ。彼らは、詳細なインシデントログ、定期的なペネトレーションテスト、脆弱性評価、および回復ドリルを実施するプロアクティブなプロセスの一環として行っている。人間の労働力を支援する、ではなく、代替するのではないロボティクスに対する信頼を失う最も速い方法は、人間のケアの代替としてそれを提示することである。これは、私が他の人に犯さないようにしたい間違いである。英国やヨーロッパの大部分では、ケアおよびリハビリテーション部門はすでに深刻なスタッフ不足に直面している。英国では、157,000の空席がある。ロボットは、物理的な負担を軽減し、繰り返しのタスクを自動化し、スタッフの時間を人間のやり取りに費やすことができるが、思慮深く導入する必要がある。ケア専門家、関連業界協会、および地元のトレーニング機関と協力して、ロボットと人間が特定のコンテキストでどのように共同作業するかについての明確なプロトコルを作成する。スタッフがテクノロジーを操作してトラブルシューティングするためのトレーニングは不可欠である。ロボティクスがスタッフに感情的なケアや複雑なケアに集中できるようにした例を強調する。地元のコンプライアンスと文化的適合性に投資するある国で機能するロボティクスソリューションは、別の国では障害に直面する可能性がある。電気安全基準、ワイヤレススペクトルの割り当て、医療機器の分類、さらにはアクセシビリティ要件は異なる。文化的適合性も重要である。会話を軽くするヒューマノイド(または人類学的)ロボットは、ある地域では歓迎されるかもしれないが、別の地域では侵入的と見なされる。同様に、人類学的ロボットは、コミュニティ内でのさまざまな年齢層によって良く受け入れられない可能性がある。ロールアウトする前に、さまざまなユーザーグループでテストし、ローカライゼーションを徹底的に行う。重要なことを測定するエシカルロボティクスは、導入チェックリストではなく、ライフサイクルコミットメントである。尊厳と独立性への実際の影響を時間の経過とともに追跡するメトリックを構築する。ユーザーは日常的な活動に自信を持っていることを報告しているか。恥ずかしさや不快感の発生は減少しているか。スタッフはストレスが減り、仕事の満足度が高まっているか。これらの結果を公開する,即使それが完全ではないとしても。「人間中心の」設計についての主張で混雑する市場では、事実に基づく結果はあなたを際立たせる。たとえば、IEEEは、P7010のような標準をThinkMetricsを通じてリリースし、ロボティクスシステムがユーザーの身体的、感情的、社会的幸福に与える影響を測定するための、検証された指標に基づいたウェルビーイングメトリックを確立した。ボトムライン英国およびEUの企業にとって、ロボティクスを通じて尊厳と独立性を促進することは、「企業の社会的責任」のニッチな行為ではなく、人間の権利フレームワークが最も厳格な地域の一つであるこの地域で、信頼できるテクノロジーを構築するための不可欠な部分である。最終的に、成功する企業は、共感で設計し、厳格にテストし、地元のニーズに適応し、機械の潜在性と限界について透明性を保つ企業である。ロボットの真の価値は、その洗練さではなく、尊厳を維持し、伴侶となる能力にある。


AIブームは、急速に変化する世界で進化し競争するために苦労している企業にとって、重要な役割を果たしてきました。多くの企業にとって、その導入は、見られ、世界中で大量のAIプロジェクトへの投資が行われ、各業界の各部門で導入され、運用を刷新し、従業員にとってよりダイナミックな職場環境を作り出し、従業員を置き換えるのではなく、サポートするものとなりました。McKinseyによると、92%の企業が、次の3年間でジェネラティブAIへの投資を増やす予定であるため、明らかに私たちの集団的な想像力が掻き立てられています。少し視点を保つために、MITは最近、調査結果を発表し、現在までに世界中で実施されたAIプロジェクトの95%が、当初の約束を果たせなかったか、投資に対するリターンを生み出せなかったことが明らかになりました。これは、当面の課題です。私たちは皆、AIが実際に何を達成できるか、そしてどこで最も効果的に活用できるかを理解するために努力しています。新興技術のすべてと同様に、ヒュープカーブの初期段階にあり、社会やコミュニティのさまざまな分野で最も効果的に活用できる方法について、集団的に賢くなっていきます。しかし、それは、企業がさらに一歩進み、自社の範囲を超えて差を生み出すことができないことを意味しません。ジェネラティブAIは、人間を支援し、人間の抱負と関わる強力なツールであることを証明してきました。成長を目指す企業にとって、社会的価値を提供することは、投資家にとってますます重要になっています。銀行口座に数字を生み出すだけでなく、将来の世代が享受できる遺産を残すことは、成長を刺激し、企業と顧客にとって良い結果をもたらします。以下は、企業のリーダーが指揮を取り、AIの真の利点を実感するための私の分析です。1. 地元の問題から始める世界的な病気を治すことや気候変動を解決するような壮大なプロジェクトを目指すことは、魅力的かもしれません。しかし、まずは地元の問題から始めましょう。企業は、すでに理解している地元の問題に焦点を当てることで、持続可能な変化を生み出すことができます。教育、環境の持続可能性、コミュニティの健康など、地元の問題に焦点を当てましょう。特に、高齢者は一貫したソーシャルコンタクトが不足しているため、彼らのケアをサポートし、孤独を解決するためのイニシアチブに投資することは、素晴らしい第一歩となります。あなたができること:クロスファンクショナルチームと繰り返しワークショップを開催し、あなたの会社が独自に解決できる地元の課題を特定しましょう。例えば、高齢者の孤独を解決するために、従業員はコーヒーミーティングを組織できます。チャリティーまたはボランティア活動のために四半期ごとに1日を割り当てることは、モラールを高め、会社をより魅力的なものにするための素晴らしい方法です。一度特定したら、内部および外部の参加者や利害関係者と定期的に会合を開き、継続的な学習の原則を効果的に呼び起こし、すべての人のモメンタムを維持しましょう。2. 実際のコミュニティの入力で構築するAIプロジェクトは、コミュニティが何に必要か、またそれをどのように解決できるかについての誤った仮定に基づいて構築されていることが多く、影響を生み出せません。ここで重要なのは、シモン・シネクのように「なぜ」を始めることです。実際の利害関係者を最初から関与させることで、この落とし穴を避け、より効果的で使いやすい解決策を生み出します。たとえば、しばしば見落とされるグループである60歳以上の高齢者を考えてみましょう。何か役立つものを構築するには、AIプロジェクトの進化を通じて継続的に会話に参加させる必要があります。彼らがどのように支援されるか、また彼らがあなたの提供するものとどのように関わるかを理解することが重要です。ポジティブなエンゲージメントとユーザーアクセシビリティは、テクノロジーへの投資が成功するために不可欠です。あなたができること:あなたの「顧客」プロファイルを定義し、コミュニティグループ、非営利団体、地元のリーダーとしての彼らとインタラクティブなリスニングセッションを通じて作業を開始しましょう。彼らの洞察を使用して、問題文と彼らの理想的な解決策を定義し、プロジェクトが成熟し進化するにつれて、最初に特定された解決策がかなり異なる可能性があることを覚えておきましょう。この重要なステップをプロジェクトを通じて繰り返し、盲点や採用の障壁、および内部チームが見落とす可能性のある重要な成功要因を明らかにし、最終的にプロジェクトがその使命を果たし、「顧客」が幸せで友人や家族にプロジェクトを勧めることを保証します。3. オープンデータを使用し、結果を共有する社会的利益のプロジェクトは、最初からScratchから始める必要はありません。多くの政府や非営利団体は、解決策を迅速にプロトタイプ化するために使用できるオープンデータセットを公開しています。同様に重要な点は、企業が開発したデータやモデルを共有して、他者がその成果を基に構築できるようにすることです。企業がプロジェクトの入力で協力することは、初期の利害関係者と最終的にコミットされたリソースの両方にとって乗数効果となります。あなたができること:チームを割り当てて、オープンデータポータル(data.govやEuropean Data Portal、World Ethical Data Foundationなど)を探索します。プロジェクトのために、少なくとも1つの有形なオープンソースツールまたはデータセットを公開することを約束します。これにより、透明性が促進され、会社の壁を超えたコラボレーションが促進されます。データセットには、機密的な企業または顧客データが含まれて서는なりません。これは、ほとんどのLLMの現在の問題です。潜在的な侵害を避けるために、最初にそれを確認する必要があります。プライバシーポリシーとITセキュリティポリシーおよびプロトコルは、すでに会社内の機密データを保護しているはずです。セキュリティポストを三重に確認しますが、内部で活用できるデータを制限するように見えるセキュリティポストに打ち勝つことはできません。4. 従業員の個人的な情熱を活用する従業員は、社会に良い影響を与える会社で働きたいと思っています。実際、地元のコミュニティへの取り組みは、従業員の関与を高める重要な要素です。国勢調査局によると、92%の従業員が、強い目的意識を持った会社で働く場合、会社を求人者に勧めやすくなります。このエネルギーを活用することで、従来のトップダウンアプローチでは見落とされるイノベーションが解放される可能性があります。あなたができること:内部的な「AI for Social Good」ハッカソンチャレンジを作成し、従業員(家族の関与も含む)がアイデアを提案できるようにします。小さなAIリソースの予算で小さなステップから始め、技術的なメンターシップを提供します。優勝したアイデアは、パイロットプログラムに繋がり、最終的に独自の製品になることが多く、それを毎日祝福し、奨励する必要があります。5. 非営利団体や大学の研究チームとパートナーシップを結ぶ多くの非営利団体は社会問題について深い理解を持っていますが、技術リソースが不足しています。一方、企業や大学の研究チームは技術的専門知識と研究の厳格さを持っていますが、現場での経験が不足しています。6. 責任あるAIをデフォルトにする社会の利益のためにAIを使用する場合、責任ある設計が不可欠です。責任ある設計は、企業の評判や運用上のリスクを回避するために重要です。あなたができること:簡単だが効果的なガイドラインを採用しましょう。例えば、データセットのバイアスオーディットや、出力が容易に理解できる説明可能なAI技術の使用などです。また、コミュニティパートナーが懸念や新しい機能、アイデアを報告できる透明なフィードバックループを実装することも重要です(これは、多くの繁栄する企業にとって、ビジネスとしての通常のことです。無視すると危険です)。Mozillaは、Common Voiceプロジェクトで、透明性を推進する企業の例です。実質的に、責任ある設計は、オプションではなく、標準的な慣行であるべきです。これらの基本的な慣行に従うことで、サービスを魅力的にし、一貫性、信頼性、効果を高めることができます。7. 社会的利益プロジェクトをイノベーションラボにする責任を持って倫理的に実施された社会的利益イニシアチブは、実際には新しいAI技術や自社開発のLLMのための「インキュベータースペース」として機能する可能性があります。企業は、これらのプロジェクトを使用してスタッフにAIを紹介したり、最先端の方法を探索したり、商業的圧力なしで代替ビジネスモデルをテストしたりすることができます。あなたができること:いくつかの見込みのあるイニシアチブを選択し、倫理的およびデータプライバシーの側面が確保されると、チームを開始します。進捗状況を定期的に確認しますが、プロジェクトを妨げないように気を付け、個人やより広いコミュニティに危害を及ぼすリスクがある場合は、すぐに停止する準備をしておきます。8. 具体的な指標で影響を報告する社会的利益について話す最も速い方法の1つは、実証がないことです。企業は、意図だけでなく、具体的な成果を報告する必要があります。これは、学術機関、コミュニティグループ、非営利団体とのパートナーシップが役立つ場合があります。研究者、特に大学院生は、プロジェクトの一環として、詳細なデータを提供する必要があり、これは私が経験したところ、すべての関係者を具体的な成果に向けて集中させるのに役立ちます。あなたができること:プロジェクトの開始時に、影響の指標を明確に定義し、各段階での成功の基準を設定します。たとえば、節約された食糧の量、到達したコミュニティグループのメンバー数、投資した時間とお金で得られた利益などです。プロジェクトが完了したら、成功と失敗の両方を含む、簡潔な報告書を公開し、プロジェクトの継続または改善に関する推奨事項を提供します。これにより、従業員、顧客、利害関係者との信頼が築かれ、コミュニティや市民がAIの「実験台」扱いされないことが保証されます。彼らは、無駄にされるテスト対象者ではなく、個人の価値を大切にするべきです。9. 一時的なイニシアチブを避ける多くの企業の社会的利益プログラムは、一時的なキャンペーンで、短期間で終了してしまいます。実際的な影響は、社会的責任をコア戦略に統合することから来ます。これは、特定の市場や長期イニシアチブに合わせて行われます。あなたができること:AI-for-社会的利益の基準をR&Dポートフォリオレビューに追加します。AIリソースの一定の割合(たとえば5%)を社会的影響プロジェクトに毎年割り当てます。これにより、長期的なコミットメントと学習が保証されます。リソースの割り当てを戦略的に行い、投資が会社や顧客にとって有益であることを確認します。そうでない場合は、最終的には無駄なプロジェクトに資源を浪費することになります。このアプローチが重要な理由社会的利益プログラムを真正に統合する企業は、単に年次報告書に「いい気分」の章を追加するのではなく、価値を構築しています。コミュニティとの絆を強化し、使命に突き動かされた人材を引き付け、責任あるAIスキルを内部で育て、競合する市場でポジティブなブランドの違いを作り出しています。企業の価値の低下を疑う世の中で、持続可能な影響は約束よりも大きな意味を持ちます。これは、慈善ではなく、より賢いビジネスであり、有意義な遺産を残すことです。