ソートリーダー
AIのデータ・ディレマ:プライバシー、規制、倫理的AIの未来

AI駆動のソリューションは、毎日、多様な業界、サービス、製品に急速に採用されています。ただし、その有効性は、トレーニングに使用するデータの質に完全に依存しています。これは、データセットの作成プロセスでよく誤解されるか、見過ごされる側面です。
データ保護当局が、AIテクノロジーがプライバシーとデータ保護規制にどのように準拠しているかを調査するにつれ、企業は、データセットをコンプライアントで倫理的な方法で取得、注釈付け、洗練するという圧力に直面しています。
本当にAIデータセットを構築するための倫理的なアプローチがあるのでしょうか。企業の最大の倫理的な課題は何ですか。どうやってそれらに取り組んでいますか。発展する法的枠組みは、トレーニングデータの入手可能性と使用にどのように影響しますか。让我們來探索這些問題。
データプライバシーとAI
その性質上、AIはタスクを実行するために大量の個人データを必要とします。これにより、データの収集、保存、使用に関する懸念が生じました。世界中の多くの法律が、個人データの使用を規制し、制限しています。ヨーロッパのGDPRや新しく導入されたAI法から、医療業界の患者データへのアクセスを規制する米国のHIPAAまでです。
世界中のデータ保護法の厳格さに関する参考資料 / DLA Piper
例えば、現在、14の米国州には包括的なデータプライバシー法があり、6つ以上の州では2025年と2026年初頭に施行される予定です。新しい行政は、連邦レベルのデータプライバシー適用に対するアプローチの転換を示しています。重要な焦点は、AI規制であり、革新を促進することよりも制限を課すことです。この転換には、AIに関する以前の行政命令の撤回と、開発と適用を導くための新しい指令の導入が含まれます。
データ保護法は、さまざまな国で進化しています。ヨーロッパでは法律が厳格ですが、アジアやアフリカでは、法律が緩い傾向があります。
ただし、顔の画像、パスポートなどの公式文書、またはその他の機密個人データなどの個人を特定できる情報(PII)は、一般的に、多くの国で何らかの程度制限されています。国連貿易開発会議によると、第三者への通知または消費者の同意なしに個人情報を収集、使用、共有することは、世界の大多数にとって大きな懸念事項です。194の国のうち137が、データ保護とプライバシーを確保する規制を持っています。したがって、多くのグローバル企業は、モデルトレーニングにPIIを使用することを避けるために、厳重な注意を払います。EUなどの規制では、こうした慣行を厳格に禁止していますが、法執行など厳格に規制されたニッチでは、まれに例外があります。
時間の経過とともに、データ保護法はより包括的で、世界的に適用されるようになっています。企業は、法的課題を避け、出現する法的および倫理的要件を満たすために、慣行を適応させています。
企業はどのような方法でデータを取得していますか。
モデルをトレーニングするためのデータ保護問題を調査する際には、企業がデータをどこから取得するかを理解することが重要です。主なデータ源は3つあります。
- データ収集
この方法により、クラウドソーシングプラットフォーム、メディアストック、およびオープンソースデータセットからデータを収集できます。
重要なのは、パブリックストックメディアはさまざまなライセンス契約の対象であるということです。商用利用ライセンスであっても、コンテンツをモデルトレーニングに使用できないことが明示的に記載されていることがあります。これらの期待はプラットフォームごとに異なり、企業は必要な方法でコンテンツを使用できることを確認する必要があります。
AI企業がコンテンツを合法的に取得した場合でも、いくつかの問題に直面する可能性があります。AIモデルトレーニングの急速な進歩は、法的枠組みを超えており、AIトレーニングデータを取り巻く規則や規制はまだ発展途上です。したがって、企業は法的開発を追跡し、ストックコンテンツをAIトレーニングに使用する前にライセンス契約を慎重に確認する必要があります。
- データ作成
最も安全なデータセット準備方法の1つは、スタジオや屋外ロケーションなどの制御された環境でユニークなコンテンツを作成することです。参加者は、収集されるデータ、使用方法、使用場所、およびアクセスできるユーザーについて記載された同意書に署名します。これにより、法的保護が完全に確保され、企業は違法なデータ使用に関する請求に直面しないことが保証されます。
この方法の主な欠点は、特にエッジケースや大規模プロジェクトの場合のコストです。ただし、大企業や企業は、以下の2つの理由でこのアプローチを使用し続けています。第一に、すべての基準と法的規制に完全に準拠していることを保証します。第二に、企業の特定のシナリオやニーズに完全に合わせたデータを提供し、モデルトレーニングで最高の精度が保証されます。
- 合成データ生成
ソフトウェアツールを使用して、指定されたシナリオに基づいて画像、テキスト、またはビデオを作成します。ただし、合成データには限界があります。事前に定義されたパラメータに基づいて生成されるため、自然な変動性が欠けているからです。
この欠如は、AIモデルに悪影響を及ぼす可能性があります。すべてのケースに関係するわけではなく、常に発生するわけではありませんが、覚えておくことが重要です。特に「モデル崩壊」は、合成データへの過度の依存により、モデルが劣化し、品質の低い出力が生成されるポイントです。
合成データは、基本的なタスク、たとえばパターンを認識したり、物体を識別したり、基本的な視覚要素を識別したりするには、非常に効果的です。
ただし、企業がモデルを完全にスクラッチからトレーニングしたり、まれなシナリオや非常に特定のシナリオに対処したりする必要がある場合、最も適切な選択肢ではありません。
最も明らかなシナリオは、運転手が子供に気を取られている、運転中に疲れている、または無謀な運転をしているなどのインキャビン環境で発生します。これらのデータポイントは、プライベートな設定にある実際の個人を含むため、パブリックデータセットに一般的に利用できません。AIモデルはトレーニングデータに基づいて合成出力を生成するため、実際に遭遇したことがないシナリオを正確に表現するのに苦労します。
合成データが失敗した場合、制御された環境で実際の俳優を使用して作成されたデータが解決策となります。
データソリューションプロバイダーであるKeymakrは、車にカメラを設置し、俳優を雇用し、赤ちゃんの世話をする、アップルジュースのボトルから飲む、または疲れの兆候を見せるなどのアクションを記録します。俳優は、AIトレーニングにデータを使用することに明示的に同意する契約書に署名し、プライバシー法に準拠していることを保証します。
データセット作成プロセスにおける責任
プロセス参加者は、クライアントから注釈会社まで、各自が契約で概要されている特定の責任を負います。最初のステップは、関係の性質、非開示契約および知的財産に関する条項を含む契約を確立することです。
最初のオプション、つまりデータをスクラッチから作成する場合を考えてみましょう。知的財産権では、プロバイダーが作成したすべてのデータは、雇用した会社に属することを規定しています。つまり、会社のために作成されたということです。これは、プロバイダーがデータが法的に取得され、適切に取得されたことを保証する必要があることをも意味します。
データソリューション会社であるKeymakrは、データのコンプライアンスを確保するために、まずデータが作成される管轄区域を確認し、関係するすべての個人から適切な同意を取得し、データがAIトレーニングに法的に使用できることを保証します。
また、データを使用してAIモデルをトレーニングした後、特定のデータがモデルにどのように貢献したかを判断することはほぼ不可能であることにも注意することが重要です。AIはすべてをまとめて混合するからです。特に数百万の画像について話す場合、特定の出力はその出力であることがありません。
この分野は急速に発展しているため、責任を分配するための明確なガイドラインがまだ確立されています。これは、自動運転車の複雑さと同様で、運転手、製造元、またはソフトウェア会社のいずれに責任があるかについて疑問が残っています。
他のケースでは、注釈プロバイダーが注釈付けのためにデータセットを受け取った場合、クライアントがデータを法的に取得したと想定します。データが明らかに違法に取得された場合、プロバイダーはそれを報告しなければなりません。ただし、そんな明らかなケースは極めてまれです。
また、評判を重視する大企業、コーポレーション、ブランドは、データをどこから取得するか非常に慎重です。データがスクラッチから作成されたわけではなく、他の法的源から取得された場合でもです。
要約すると、データ作業プロセス参加者の責任は、契約によって決まります。これを「持続可能性チェーン」の一部と考えることができます。ここでは、各参加者が法的および倫理的基準を維持する上で重要な役割を果たします。
AI開発のバックエンドに関する誤解
AI開発に関する大きな誤解は、AIモデルが検索エンジンのように機能し、学習した知識に基づいてユーザーに情報を提示するというものです。ただし、AIモデル、特に言語モデルは、学習した知識に基づいてではなく、確率に基づいて機能します。パターンを予測するのではなく、以前のデータで見られたパターンに基づいて単語や用語を予測します。AIは「知識」を持っていないのです。extrapolate、推測、確率を調整するだけです。
さらに、多くの人は、AIのトレーニングには大量のデータセットが必要だと考えていますが、AIが認識する必要があるものの多く(例:犬、猫、人間)はすでに確立されています。現在の焦点は、認識能力を再発明するのではなく、精度を向上させ、モデルを洗練させることです。今日のAI開発の大部分は、精度の最後の小さなギャップを埋めることではなく、基礎を構築することから始まるのです。
倫理的課題とヨーロッパ連合のAI法および米国の規制の緩和が世界のAI市場に与える影響
データの倫理性と合法性について議論する際には、どのような「倫理的」AIであるかを明確に理解することが重要です。
企業が現在直面しているAIの最大の倫理的課題は、AIが何をしてはならないか、または何を教えてはならないかを判断することです。倫理的なAIは人間を助けるべきであり、害を与えたり欺瞞したりしてはならないという広範な合意があります。ただし、AIシステムはエラーを犯したり「妄想」したりする可能性があり、デシンフォメーションまたは有害とみなされるかどうかを判断することは難しい課題です。
AI倫理は、ユネスコのような組織が関与する重要な議論です。出力の監査可能性と追跡可能性を取り巻く重要な原則があります。
AIトレーニングのデータへのアクセスを取り巻く法的枠組みは、AIの倫理的景観を形作る上で重要な役割を果たします。データの使用に制限が少ない国では、トレーニングデータへのアクセスがより容易になります。一方、データ法が厳格な国では、AIトレーニングのためのデータの入手可能性が制限されます。
例えば、AI法を採用したヨーロッパと、多くのAI規制を撤廃した米国は、現在のグローバル景観を示す対照的なアプローチを提供しています。
ヨーロッパ連合のAI法は、ヨーロッパで事業を展開する企業に大きな影響を与えています。これは、企業が特定のAIモデルを使用または開発することを困難にする厳格な規制枠組みを施行しています。企業は、特定のテクノロジーを使用するために特定のライセンスを取得する必要があり、多くの場合、規制は小規模企業がこれらの規則に準拠することを困難にします。
その結果、スタートアップ企業のいくつかはヨーロッパを離れることを選択するか、そこで事業を展開しないことを選択する可能性があります。これは、暗号通貨規制の影響と同様です。大規模企業は、コンプライアンス要件を満たすための投資を行うことができますが、法令はヨーロッパからAIの革新を遠ざける可能性があり、代わりに米国やイスラエルなどの規制が緩い市場にAIの革新が流れる可能性があります。
米国が規制が少ないAI開発に多大な資源を投入する決定も欠点がある可能性がありますが、市場に多様性をもたらす可能性があります。ヨーロッパ連合が安全性と規制コンプライアンスに焦点を当てている一方で、米国はよりリスクを伴う実験や最先端の実験を推進する可能性があります。













