思想领袖
AI 透明度和开放源代码模型的需求

为了保护人们免受人工智能的潜在危害,美国和欧洲联盟的一些监管机构越来越倾向于控制和制衡开放源代码人工智能模型的权力。这部分是由大型企业控制人工智能开发和塑造人工智能发展以造福自己的愿望所驱动的。监管机构还担心人工智能发展的速度,他们担心人工智能发展太快,没有足够的时间来建立防止其被用于恶意目的的保障措施。
美国的 AI 权利法案和 NIST AI 风险管理框架,以及欧盟的 EU AI 法案,支持诸如准确性、安全性、非歧视性、安全性、透明度、问责制、可解释性、可理解性和数据隐私等原则。另外,欧盟和美国都预计标准化组织,无论是政府还是国际实体,都将在建立人工智能指南方面发挥至关重要的作用。
鉴于这种情况,为了实现一个拥抱透明度和能够检查和监控人工智能系统的未来至关重要。这将使全球的开发人员能够彻底检查、分析和改进人工智能,特别是专注于训练数据和过程。
为了成功地将透明度带入人工智能,我们必须了解支撑人工智能的决策算法,从而解开人工智能的“黑盒子”方法。开放源代码和可检查的模型在实现这一目标方面发挥着重要作用,因为它们提供了对底层代码、系统架构和训练数据的访问,以便审查和审计。这种开放性促进了合作、推动创新,并防止了垄断。
为了见证这一愿景的实现,促进政策变革、草根倡议和鼓励所有利益相关者(包括开发人员、企业、政府和公众)的积极参与是至关重要的。
当前的人工智能状态:集中和控制
目前,人工智能的开发,特别是与 大型语言模型(LLM)相关的开发,主要是集中式的并由大型企业控制的。这种权力的集中引发了人们对潜在的滥用和公平获取人工智能进步的担忧。
特别是,像 LLM 这样的流行模型在训练过程中缺乏开放源代码的替代方案,因为这需要大量的计算资源,这通常只有大公司才能提供。然而,即使这种情况保持不变,确保训练数据和过程的透明度也是促进审查和问责制的必要条件。
OpenAI最近引入的针对某些人工智能类型的许可系统引发了人们对监管俘获的担忧,因为这不仅会影响人工智能的轨迹,还会影响更广泛的社会、经济和政治方面。
透明人工智能的需求
想象一下,依赖于一种技术,它对人类/个人生活做出有影响力的决定,却没有留下任何痕迹,没有对这些结论背后的理由的理解。这就是透明度变得不可或缺的原因。
首先,透明度至关重要,并建立信任。当人工智能模型变得可观察时,它们会让人们对其可靠性和准确性充满信心。此外,这种透明度还会让开发人员和组织对其算法的结果更加负责。
透明度的另一个关键方面是识别和缓解算法偏差。偏差可以通过以下方式注入人工智能模型中:
- 人类因素:数据科学家容易将自己的偏差注入模型中。
- 机器学习:即使科学家创建了纯粹客观的人工智能,模型仍然容易受到偏差的影响。机器学习从一个定义明确的数据集开始,但然后被设置为自由地吸收新数据并创建新的学习路径和新的结论。这些结果可能是意外的、有偏差的或不准确的,因为模型试图在所谓的“数据漂移”中自行演化。
了解这些潜在的偏差来源以便识别和缓解它们至关重要。识别偏差的一种方法是审计用于训练模型的数据。这包括寻找可能表明歧视或不公平的模式。另一种缓解偏差的方法是使用去偏差技术。这些技术可以帮助从模型中去除或减少偏差。通过透明地展示偏差的可能性并采取措施缓解偏差,我们可以帮助确保人工智能以公平和负责任的方式使用。
透明的人工智能模型使研究人员和用户能够检查训练数据、识别偏差并采取纠正措施。通过使决策过程可见,透明度帮助我们努力实现公平性并防止歧视性做法的传播。此外,透明度在模型的整个生命周期中都是必要的,以防止数据漂移、偏差和人工智能幻觉,这些幻觉会产生虚假信息。这些幻觉在大型语言模型中尤其普遍,但也存在于所有形式的人工智能产品中。人工智能的可观察性在确保模型的性能和准确性方面也发挥着重要作用,从而创建更安全、更可靠的人工智能,减少错误或意外后果的可能性。
然而,在人工智能中实现透明度并非没有挑战。需要仔细平衡以解决诸如数据隐私、安全性和知识产权等问题。这需要实施保护隐私的技术,匿名化敏感数据,并建立促进负责任的透明度实践的行业标准和法规。
使透明人工智能成为现实
开发能够在人工智能中实现可检查性的工具和技术对于促进人工智能模型的透明度和问责制至关重要。
除了开发能够实现人工智能可检查性的工具和技术外,技术开发还可以通过围绕人工智能创建透明度文化来促进透明度。鼓励企业和组织透明地使用人工智能也可以帮助建立信任和信心。通过使人工智能模型更容易检查并围绕人工智能创建透明度文化,技术开发可以帮助确保人工智能以公平和负责任的方式使用。
然而,技术开发也可能产生相反的效果。例如,如果技术公司开发出不对公众开放审查的专有算法,这将使理解这些算法的工作原理和识别任何潜在偏差或风险变得更加困难。确保人工智能造福整个社会而不仅仅是少数人需要高度的合作。
研究人员、政策制定者和数据科学家可以建立法规和标准,以在开放性、隐私和安全性之间取得平衡,而不会扼杀创新。这些法规可以创建框架,鼓励知识共享,同时解决潜在风险并为关键系统中的透明度和可解释性定义期望。
所有与人工智能开发和部署相关的各方都应通过记录决策过程、提供源代码并将透明度作为人工智能系统开发的核心原则来优先考虑透明度。这使每个人都有机会在探索使人工智能算法更易于解释的方法和开发促进复杂模型理解和解释的技术方面发挥至关重要的作用。
最后,公众参与这一过程至关重要。通过提高人们对人工智能透明度的认识并促进公众讨论,我们可以确保社会价值观反映在人工智能系统的开发和部署中。
结论
随着人工智能越来越融入我们生活的各个方面,人工智能透明度和开放源代码模型的使用变得至关重要。接受可检查的人工智能不仅可以确保公平性和问责制,还可以促进创新、防止权力的集中并促进人工智能进步的公平获取。
通过优先考虑透明度、使人工智能模型可检查并促进合作,我们可以共同塑造一个造福所有人的人工智能未来,同时解决与这一变革性技术相关的伦理、社会和技术挑战。
