存根 研究人员认为人工智能可以用来帮助保护人们的隐私 - Unite.AI
关注我们.

伦理

研究人员相信人工智能可以用来帮助保护人们的隐私

mm
更新 on

两位信息科学教授最近发表了 《对话》中的一段,认为人工智能可以帮助保护人们的隐私,纠正它造成的一些问题。

陈志远和 Aryya Gangopadhyay 认为,人工智能算法可以用来保护人们的隐私,从而抵消人工智能其他用途带来的许多隐私问题。 Chen 和 Gangopadhyay 承认,如果不访问大量数据,我们为方便起见而使用的许多人工智能驱动产品就无法工作,乍一看,这似乎与保护隐私的尝试相矛盾。 此外,随着人工智能扩展到越来越多的行业和应用程序,更多的数据将被收集并存储在数据库中,使得这些数据库的破坏变得诱人。 然而,Chen 和 Gangopadhyay 认为,如果使用得当,人工智能可以帮助缓解这些问题。

Chen 和 Gangopadhyay 在他们的帖子中解释说,与人工智能相关的隐私风险至少来自两个不同的来源。 第一个来源是为训练神经网络模型而收集的大型数据集,而第二个隐私威胁是模型本身。 数据可能会从这些模型中“泄漏”,模型的行为会泄露用于训练它们的数据的详细信息。

深度神经网络由多层神经元组成,每一层都与其周围的层相连。 各个神经元以及神经元之间的链接对训练数据的不同位进行编码。 即使模型没有过度拟合,该模型也可能被证明在记住训练数据的模式方面太好了。 网络内存在训练数据的痕迹,恶意行为者可能能够确定训练数据的各个方面,如康奈尔大学 在他们的一项研究中发现。 康奈尔大学的研究人员发现,攻击者可以利用面部识别算法来揭示哪些图像以及哪些人被用来训练面部识别模型。 康奈尔大学的研究人员发现,即使攻击者无法访问用于训练应用程序的原始模型,攻击者仍然可以通过使用模型来探测网络并确定训练数据中是否包含特定人员是根据高度相似的数据进行训练的。

目前,一些人工智能模型被用来防止数据泄露并试图确保人们的隐私。 人工智能模型经常用于通过识别黑客渗透安全方法的行为模式来检测黑客企图。 然而,黑客经常改变他们的行为来试图欺骗模式检测人工智能。

人工智能训练和开发的新方法旨在使人工智能模型和应用程序不易受到黑客方法和安全规避策略的影响。 对抗性学习致力于训练人工智能模型来模拟恶意或有害输入,从而使模型对利用更加鲁棒,因此名称中的“对抗性”。 根据 Chen 和 Gangopadhyay 的说法,他们的研究 发现了 打击旨在窃取人们私人信息的恶意软件的方法。 两位研究人员解释说,他们发现抵御恶意软件最有效的方法之一是在模型中引入不确定性。 目标是让不良行为者更难预测模型对任何给定输入的反应。

利用人工智能保护隐私的其他方法包括在创建和训练模型时最大限度地减少数据暴露,以及探索发现网络的漏洞。在保护数据隐私方面,联邦学习可以帮助保护敏感数据的隐私,因为它允许在训练数据不离开包含数据的本地设备的情况下训练模型,从而隔离数据和大部分数据。来自间谍活动的模型参数。

最终,Chen 和 Gangopadhyay 认为,虽然人工智能的扩散对人们的隐私造成了新的威胁,但如果经过精心设计,人工智能也可以帮助保护隐私。