スタブ AI と調査研究: 驚くべきコラボレーション - Unite.AI
私達と接続

倫理

AIとアンケート調査:驚きのコラボレーション

公開済み

 on

最近の 研究 BYU の政治学およびコンピュータ サイエンスの教授と大学院生のチームによって行われた研究では、調査形式の研究において人間の対応者の代わりに人工知能 (AI) を使用する可能性が検討されました。 研究チームは、人間の考え、態度、さまざまな部分集団の社会文化的背景の間の複雑な関係を模倣する GPT-3 言語モデルのプログラムされたアルゴリズムの精度をテストしました。

人工ペルソナと投票パターン

ある実験では、研究者らは人種、年齢、イデオロギー、宗教性などの特定の特徴をAIに割り当てて、人工的なペルソナを作成した。 次に、これらの人工ペルソナが 2012 年、2016 年、2020 年の米国大統領選挙で人間と同じように投票するかどうかをテストしました。 アメリカ国立選挙研究 (ANES) を人間の比較データベースとして使用することにより、彼らは AI と人間の投票パターンの間に高い一致があることを発見しました。

BYU コンピューターサイエンス教授であり、この研究の共著者である David Wingate 氏は、この結果に対する驚きを次のように表明しました。

「特に興味深いのは、このモデルが政治科学を行うように訓練されておらず、インターネットからダウンロードされた XNUMX 億語のテキストで訓練されただけであるという点です。 しかし、私たちが得た一貫した情報は、人々が実際にどのように投票したかに非常に関係していました。」

インタビュー形式の調査と今後の活用について

別の実験では、研究者らは、やはりANESを人間のサンプルとして使用し、インタビュー形式の調査で選択肢のリストから回答を提供するように人工ペルソナを条件付けした。 彼らは、人間と AI の反応における微妙なパターンの間に高い類似性があることを発見しました。

この調査結果は、研究者、マーケティング担当者、世論調査員に興味深い展望を提供します。 AI を使用すると、より適切な調査質問を作成し、よりアクセスしやすく代表的なものに改良し、到達するのが難しい母集団をシミュレートすることもできます。 フォーカス グループを実施する前に、アンケート、スローガン、キャッチフレーズをテストするためにも使用できます。

BYU政治学教授イーサン・バズビー氏は次のようにコメントした。

「これは人間に取って代わるものではありませんが、人間をより効果的に研究するのに役立ちます。 それは私たちの能力を置き換えるのではなく、強化することです。 アンケートやメッセージングを事前にテストできるため、人々との作業をより効率的に行うことができます。」

倫理的問題と今後の研究

大規模な言語モデルが進歩し続けるにつれて、その応用と影響に関して多くの疑問が生じます。 このテクノロジーから恩恵を受けるのはどの集団でしょうか、またマイナスの影響を受けるのはどの集団でしょうか? AI を操作してより高度なフィッシング詐欺を作成する可能性のある詐欺師や詐欺師から身を守るにはどうすればよいでしょうか?

これらの疑問の多くは未解決のままですが、この研究は、将来の研究者がさまざまな主題分野の AI モデルの精度を判断するために使用できる一連の基準を提供します。

Wingate は、AI 開発の潜在的なプラスとマイナスの影響を認めています。

「新しい機能が解放されるため、プラスのメリットが得られるでしょう。 また、コンピューターモデルが不正確な場合や偏っている場合があるため、否定的なことが起こることもあります。 これからも社会を混乱させ続けるだろう。」

バズビー氏は、人工ペルソナの調査が現実の人間の調査の必要性に取って代わられるべきではないと強調し、学者や専門家が協力して社会科学研究における AI 調査の倫理的境界を定義するよう呼びかけている。

Alex McFarland は、AI ジャーナリスト兼ライターであり、人工知能の最新の発展を調査しています。彼は世界中の数多くの AI スタートアップ企業や出版物と協力してきました。