伦理
人工智能与调查研究:令人惊讶的合作

人工人物和投票模式
在一个实验中,研究人员通过为AI分配特定的特征(如种族、年龄、意识形态和宗教性)创建了人工人物。然后,他们测试这些人工人物是否会像人类一样在2012年、2016年和2020年美国总统选举中投票。通过使用美国国家选举研究(ANES)作为他们的比较人类数据库,他们发现AI和人类投票模式之间存在很高的相关性。
David Wingate,BYU计算机科学教授和研究的共同作者,对结果表示惊讶:
“尤其有趣的是,该模型并没有被训练来进行政治科学研究——它只是被训练在互联网上下载的100亿个文字上。但我们得到的信息如此一致,反映了人们真正的投票方式。”
面谈式调查和未来应用
在另一个实验中,研究人员使人工人物能够从选项列表中提供面谈式调查的响应,同样使用ANES作为他们的人类样本。他们发现人类和AI响应之间的细微模式存在很高的相似性。
该研究的发现为研究人员、营销人员和民意调查员提供了令人兴奋的前景。AI可以被用来制作更好的调查问题,完善它们以使其更易于访问和代表性,甚至模拟难以接触的人口。它还可以被用来在进行焦点小组之前测试调查、口号和标语。
BYU政治科学教授Ethan Busby评论说:
“这不是取代人类,而是帮助我们更有效地研究人类。这是关于增强我们的能力,而不是取代它。它可以帮助我们在与人类的工作中更高效地进行预测试和信息传递。”
伦理问题和未来研究
随着大型语言模型的不断发展,人们对其应用和影响提出了许多疑问。哪些人群将从这项技术中受益,哪些人群将受到负面影响?我们如何保护自己免受可能利用AI制造更复杂的钓鱼诈骗的骗子和诈骗者的侵害?
虽然许多问题仍然未得到答案,但该研究为未来的研究人员提供了一套标准,以确定AI模型在各个主题领域的准确性。
Wingate承认AI开发的潜在积极和消极后果:
“我们将看到积极的好处,因为它将解锁新的能力。我们也将看到负面的事情发生,因为有时计算机模型不准确,有时它们存在偏见。它将继续影响社会。”
Busby强调,调查人工人物不应取代调查真实人的必要性,并呼吁学者和专家合作定义AI调查在社会科学研究中的伦理界限。












