存根 AI 向 AI 学习:大型语言模型中社交学习的出现 - Unite.AI
关注我们.

人工智能

人工智能向人工智能学习:大型语言模型中社交学习的出现

mm
更新 on

自 OpenAI 推出以来 聊天GPT 3.5 到 2022 年底,基础设施的作用 大型语言模型 (法学硕士)在人工智能(AI)领域变得越来越重要,特别是在 自然语言处理 (自然语言处理)。这些法学硕士旨在处理和生成类似人类的文本,从互联网上的大量文本(从书籍到网站)中学习。这种学习过程使他们能够捕捉人类语言的本质,使法学硕士看起来像通用问题解决者。

虽然法学硕士的发展打开了新的大门,但使这些模型适应特定应用的方法(称为 微调——带来了自己的一系列挑战。微调模型需要对更集中的数据集进行额外的训练,这可能会导致一些困难,例如需要标记数据、 模型漂移过度拟合,以及对大量资源的需求。

为了应对这些挑战,谷歌的研究人员最近采用了“s社交学习’帮助人工智能向人工智能学习。关键思想是,当法学硕士转换为聊天机器人时,它们可以以类似于人类社会学习的方式相互交互和学习。这种互动使他们能够互相学习,从而提高效率。

什么是社交学习?

社会学习并不是一个新想法。它基于 1970 世纪 XNUMX 年代的理论 艾伯特·班拉,这表明人们通过观察他人来学习。这一概念应用于人工智能意味着人工智能系统可以通过相互交互来改进,不仅可以从直接经验中学习,还可以从同伴的行为中学习。这种方法有望更快地获取技能,甚至可能让人工智能系统通过共享知识来发展自己的“文化”。

与其他人工智能学习方法不同,比如试错法 强化学习 or 模仿学习 从直接的例子来看,社会学习强调通过互动来学习。它为人工智能提供了一种更实用、更公共的方式来学习新技能。

法学硕士的社会学习

社会学习的一个重要方面是在不共享原始和敏感信息的情况下交换知识。像这样, 研究人员 采用了师生动态,教师模型促进学生模型的学习过程,而不会透露任何机密细节。为了实现这一目标,教师模型会生成综合示例或方向,学生模型可以从中学习而无需共享实际数据。例如,考虑一个教师模型,该模型使用用户标记的数据来区分垃圾邮件和非垃圾邮件文本消息。如果我们希望另一种模型能够在不接触原始私有数据的情况下完成这项任务,那么社交学习就可以发挥作用。教师模型将创建综合示例或根据其知识提供见解,使学生模型能够准确识别垃圾邮件,而无需直接暴露敏感数据。这一策略不仅提高了学习效率,还展示了法学硕士以动态、适应性强的方式学习的潜力,有可能建立集体知识文化。这种方法的一个重要特征是它依赖于综合示例和精心设计的说明。通过生成与原始数据集不同的新的、信息丰富的示例,教师模型可以保护隐私,同时仍然指导学生模型进行有效的学习。这种方法很有效,取得的结果与使用实际数据获得的结果相当。

社会学习如何应对微调的挑战?

社会学习提供了一种针对特定任务完善法学硕士的新方法。它有助于通过以下方式应对微调的挑战:

  1. 对标记数据的需求减少: 通过从模型之间共享的综合示例中学习,社交学习减少了对难以获取的标记数据的依赖。
  2. 避免过度专业化: 它通过将模型暴露给比小型特定数据集中更广泛的示例来保持模型的多功能性。
  3. 减少过度拟合: 社交学习拓宽了学习体验,帮助模型更好地泛化并避免过度拟合。
  4. 节省资源: 这种方法可以更有效地利用资源,因为模型可以从彼此的经验中学习,而无需直接访问大型数据集。

未来发展方向

法学硕士的社交学习潜力为未来人工智能研究提供了各种有趣且有意义的方式:

  1. 混合人工智能文化:当法学硕士参与社会学习时,他们可能会开始形成共同的方法。可以进行研究来调查这些新兴人工智能“文化”的影响,检查它们对人类互动和所涉及的道德问题的影响。
  2. 跨模态学习:将社交学习扩展到文本之外,包括图像、声音等,可以让人工智能系统对世界有更丰富的理解,就像人类通过多种感官学习一样。
  3. 分散学习:人工智能模型通过去中心化网络相互学习的想法提出了一种扩大知识共享的新方法。这需要解决协调、隐私和安全方面的重大挑战。
  4. 人机交互:探索人类和人工智能如何从社会学习中互惠互利是有潜力的,特别是在教育和协作环境中。这可能会重新定义知识转移和创新的发生方式。
  5. 道德人工智能开发:通过社会学习教导人工智能解决道德困境可能是迈向更负责任的人工智能的一步。重点是开发能够进行道德推理并符合社会价值观的人工智能系统。
  6. 自我改进系统:人工智能模型不断学习和改进彼此的经验的生态系统可以加速人工智能创新。这表明人工智能可以更自主地适应新挑战的未来。
  7. 学习隐私:随着人工智能模型共享知识,确保底层数据的隐私至关重要。未来的努力可能会探索更复杂的方法,以在不损害数据安全的情况下实现知识​​转移。

底线

受人类从观察他人中学习的能力的启发,谷歌研究人员开创了一种称为大型语言模型(LLM)社交学习的创新方法。该框架允许法学硕士共享知识并提高能力,而无需访问或暴露敏感数据。通过生成综合示例和指令,法学硕士可以有效地学习,解决人工智能开发中的关键挑战,例如标记数据的需求、过度专业化、过度拟合和资源消耗。社交学习不仅提高了人工智能的效率和适应性,还为人工智能发展共享“文化”、进行跨模态学习、参与去中心化网络、以新的方式与人类互动、解决道德困境和确保隐私开辟了可能性。这标志着人工智能系统向更具协作性、多功能性和道德性的重大转变,有望重新定义人工智能研究和应用的格局。

Tehseen Zia 博士是伊斯兰堡 COMSATS 大学的终身副教授,拥有奥地利维也纳科技大学的人工智能博士学位。 他专注于人工智能、机器学习、数据科学和计算机视觉,在著名科学期刊上发表论文,做出了重大贡献。 Tehseen 博士还作为首席研究员领导了多个工业项目,并担任人工智能顾问。