Refresh

This website www.unite.ai/zh-CN/prompt-engineering-in-chatgpt/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

关注我们.

即时工程

ChatGPT 中快速工程的基本指南

mm
更新 on

自推出以来 ChatGPT 在人工智能领域掀起波澜,创纪录地吸引了超过 100 亿用户。 ChatGPT 令人印象深刻的性能和多功能性的秘诀在于巧妙地隐藏在其编程中的艺术——即时工程。

DALL-E、MidJourney 和 StableDiffusion 于 2022 年推出,凸显了生成式 AI 的颠覆性潜力。 但它是 打开AIChatGPT 在 2022 年晚些时候真正占据了舞台中心。而且这种势头没有放缓的迹象。

谷歌宣布巴德 和 Meta的南丫岛2  对 OpenAI 的 ChatGPT 的响应极大地放大了 AI 竞赛的势头。 通过为这些模型提供输入,我们正在指导他们的行为和反应。 这使得我们所有人都在一定程度上促进了工程师的发展。 科技行业已经注意到了这一点。 风险资本家正在向专注于快速工程的初创公司注入资金,例如 羊皮纸 AI。 此外,《福布斯》报道称,工程师命令 工资超过300,000万美元,表明就业市场蓬勃发展且有价值。

在本文中,我们将在 ChatGPT 的背景下揭开即时工程世界的神秘面纱。我们将探索核心原理和技术,并研究它们的商业应用。

我们先来了解一下ChatGPT是如何运作的,以及提示工程在这个过程中扮演的关键角色。

ChatGPT 提示工程背后的机制

ChatGPT 成功的秘诀在于它能够理解和模仿人类对话的细微差别。 该模型接受了各种互联网文本的训练,但最重要的是,它不知道训练集中的特定文档或来源,从而确保了泛化而不是特殊性。 这种训练方法使 ChatGPT 能够生成创造性的响应、导航复杂的对话,甚至表现出幽默感。 然而,重要的是要记住,ChatGPT 并不真正理解或有信仰; 它根据训练期间学到的模式生成响应。

ChatGPT 能够以细致入微和上下文感知的方式理解和响应人类语言,这使得它们成为令人难以置信的多功能工具。

这些模型的机制依赖于“标记”的概念——离散的语言块,范围可以从单个字符到整个单词。 这些模型一次使用特定数量的令牌(GPT-4096-Turbo 为 3.5,GPT-8192 为 32768 或 4),预测下一个可能的令牌序列。 该模型使用复杂的线性代数处理令牌,预测最可能的后续令牌。


ChatGPT Tokenizer - 提示工程 - Unite AI

例如,一个简单的九个单词的句子可以变成十个标记。 即使一个复杂的单词也可以变成多个标记,这有助于模型更好地理解和生成语言。 即使是具有复杂单词结构的语言(例如德语)也可以通过标记化进行管理。

提示工程-大语言模型标记和预测图解

 

GPT(生成式预训练变压器)模型的工作原理是一次生成一个令牌,从第一个令牌开始一直到最后一个令牌。 生成每个标记后,模型会重新访问整个序列并再次处理它以生成下一个标记。 这个迭代过程一直持续到生成最终的标记,使得文本的生成类似于一个大的 for 循环。

但问题是——这些响应的质量很大程度上取决于它收到的提示。 就像引导与人的对话一样,引导与 ChatGPT 的对话需要一定水平的技能和理解。 这就是即时工程发挥作用的地方。

什么是即时工程?

提示工程是一门制作精确、有效的提示/输入来指导人工智能的艺术(NLP/Vision)模型(例如 ChatGPT)旨在生成最具成本效益、准确、有用和安全的输出。

即时工程不仅限于文本生成,而且在人工智能领域有着广泛的应用。它越来越多地应用于机器人流程自动化机器人、3D 资产、脚本、机器人指令以及其他类型的内容和数字媒体等领域。它提供了逻辑、编码、艺术以及在某些情况下的特殊修饰符的独特混合。

虽然提示可以包括自然语言文本、图像或其他类型的输入数据,但不同 AI 服务和工具的输出可能会有很大差异。 每个工具都有其特殊的修饰符,用于描述所需响应的单词、样式、视角、布局或其他属性的权重。

该领域对于创建更好的人工智能服务以及从现有的生成式人工智能工具获得卓越的结果至关重要。 例如,企业开发人员经常利用即时工程来定制 GPT-3 等大型语言模型 (LLM),以支持面向客户的 聊天机器人 或处理诸如创建特定行业合同之类的任务。

这种快速完善和衡量人工智能性能的迭代过程是使人工智能模型能够在各种情况下生成高度有针对性、有用的响应的关键要素。

成为一名即时工程师

GPT-4 模型在理解复杂指令和准确解决复杂问题方面的能力使其成为宝贵的资源。 然而,可以通过不同的方法来访问该模型的功能,并且了解这些对于即时工程师在优化效率和成本效益方面的作用至关重要。

本质上有两种方法可以使用 GPT-4 等 GPT 模型。 一种方法是通过 OpenAI 的 API,其中根据输入和输出代币计算成本。 在这种情况下,每 1K 代币的成本可能会根据上下文大小而波动。 例如,在更大的 32K 上下文中,输入令牌的成本可能高达 0.06 美元,输出令牌的成本可能高达 0.12 美元。 因此,当处理大量请求时,使用成本会迅速累积。

另外,ChatGPT 利用 GPT-4 模型,在基于订阅的模型上运行。

即时工程的另一个关键任务涉及模型参数调整。 此过程涉及调整模型用于进行预测的变量。 通过微调这些参数,提示工程师可以提高模型响应的质量和准确性,使它们更具上下文相关性和帮助性。

尽管许多即时工程师都来自技术背景,但该领域的多学科性质使其适合来自不同专业背景的个人。 越来越多的作家、研究人员甚至艺术家都在利用他们独特的技能来提高人工智能模型的效率。 这种转变也反映在就业市场上,越来越多的公司寻求具有多种技能和背景的快速工程师。

ChatGPT 中的快速设计和工程

即时设计和工程在优化语言模型的性能方面发挥着关键作用,并且不仅仅涉及设计问题; 他们需要对人工智能模型有深入的了解,并且需要高度迭代和完善的方法。

ChatGPT 示例提示 - 提示工程 - Unite AI

及时设计

提示设计的核心是为给定的大型语言模型 (LLM)(例如 ChatGPT)创建完美提示以实现明确规定的目标的艺术和科学。 它是以下成分的混合体:

  • 对法学硕士的理解:不同的语言模型对相同的提示可能会有不同的反应。 此外,某些语言模型可能具有独特的关键字或触发器,它们以特定的方式进行解释。
  • 领域知识:设计提示时,相关领域的专业知识至关重要。 例如,生成推断医学诊断的提示需要医学知识。
  • 迭代方法和质量测量:创建理想提示的过程通常涉及反复试验。 因此,有一种超越主观判断的方法来评估输出质量至关重要,特别是在大规模使用提示时。

即时工程

即时工程是即时设计的扩展领域,包括几个关键过程:

  • 大规模提示设计:此过程包括设计元提示(生成其他提示的提示)和提示模板,这些提示模板是可以在运行时实例化的参数化提示。
  • 工具设计和集成:提示有时可能包括外部工具的结果,将这些工具无缝集成到系统中至关重要。
  • 工作流程、规划和提示管理:部署 LLM 应用程序(如聊天机器人)通常需要管理提示库、规划和选择正确的提示,并有效集成各种工具。
  • 提示的评估和质量保证:这方面包括定义自动和人工参与评估提示的指标和流程。
  • 提示优化:AI 模型的成本和延迟可能取决于模型的选择和提示的长度(令牌数量)。

已经开发了许多自动化提示设计方法、工具和框架来大规模管理提示。 然而,重要的是要明白,这些工具都无法取代经验丰富的提示工程师的细致入微的理解、判断和经验。

快速工程:技术和最佳实践

1) 提示放置和描述

将指令放在提示的开头可以显着影响人工智能的理解和响应。 考虑以项目符号格式总结文本的任务。 一个不太有效的方法是:

用户:将下面的文本总结为最重要点的要点列表。
{此处输入文字}

另一方面,更有效的技术可能是:

用户:将下面的文本总结为最重要点的要点列表。
文本: ”””
{此处输入文字}
“”

通过使用 ### 或“””等符号清晰区分指令和上下文,人工智能模型可以更好地描述其任务和需要处理的文本,从而给出更准确和相关的响应。

其次,对上下文、预期结果、长度、格式、风格等进行具体、描述性和详细描述可以显着提高人工智能响应的准确性。 假设您需要以引人入胜、外行人友好的风格生成一篇科学论文的简要概述。 与具体、详细的提示相比,像“总结科学论文”这样的模糊指示会产生不太有效的结果:

用户:生成以下科学论文的简短摘要(约 200 字)、引人入胜的摘要。 摘要应该对于没有科学背景的人来说是可以理解的,同时准确地反映了论文的主要发现。
纸: ”””
{此处为科学论文文本}
“”

2)角色模式

角色模式是一种将人工智能设置为从特定角度发挥作用的策略,例如专业角色或虚构角色。 这种策略使模型能够提供与角色将处理的特定角色相关的输出。 例如,人们可以指示人工智能在代码审查期间充当网络安全专家。 当用户需要帮助但不确定输出中所需的确切详细信息时,此模式特别有用。

以下面为例:

用户:“假设一位专门研究法国大革命的资深历史学家的角色。 鉴于这个角色,请解释导致法国君主制垮台的关键事件和原因。”

在这种情况下,人工智能预计将像历史学家一样,对法国大革命进行深入分析,重点关注君主制的垮台。

引入新信息

ChatGPT 不具备超出其训练截止范围的知识,因此它无法提供有关最近事件或训练后更新的信息。 但是,您可以通过提示向模型引入新信息。

用户:“什么是加密货币?”
ChatGPT:“加密货币是一种使用加密技术确保安全的数字或虚拟货币。 最著名的加密货币是比特币。”

现在,如果我们在提示中添加更多上下文,我们可以使解释更加直观:

用户:“向学习数字金融的高中生解释加密货币的概念”
ChatGPT:“想象一下,您正在玩​​在线视频游戏,您可以赚取游戏币来购买升级或新角色。 加密货币有点像这样,但它不仅限于游戏,你实际上可以用它来购买现实世界的商品和服务。 这就像没有银行或政府控制的数字货币。”

3)提示尺寸限制

了解 ChatGPT 的大小限制至关重要,因为它直接影响我们可以输入的信息的数量和类型。 语言模型并不是为了一次处理无限的数据而构建的。 它们对我们可以创建和输入的提示的大小有固有的限制。 这种限制对于提示的设计和执行具有深远的影响。

ChatGPT 有一个令牌限制(通常为 2048 个令牌),其中包括提示和生成的响应。 这意味着长提示会限制响应的长度。 因此,保持提示简洁且信息丰富非常重要。

在实际使用中,我们必须充当编辑者,有选择地选择与手头任务最相关的信息。 想象一下,写一篇有字数或页数限制的论文或文章——你不能只是转储随机事实,而是要仔细选择和构建与主题相关的信息。

用户:“鉴于模型的象征性限制,请用不到 1000 字的内容概括二战的关键事件。”

通过承认模型的标记局限性,该提示指示人工智能提供第二次世界大战的简洁而全面的摘要。

重复使用的提示:在对话场景中,您可以重复使用提示或根据以前的响应对其进行细化。 这提供了对话流程并维持交互中的上下文。

4)问题细化模式

ChatGPT 还可以帮助完善您的问题。 例如,如果您提出问题,它可以建议一个更好的问题,以获得更准确的结果。

问题细化模式涉及法学硕士细化用户提出的问题。 当用户不是某个领域的专家或不确定如何表达他们的问题时,它特别有用。

示例提示可能如下所示:

用户:“每当我询问有关数据科学的问题时,请考虑统计分析的具体情况提出一个更精确的问题,并询问我是否想继续处理这个精确的问题。”

在这里,人工智能预计将用户的一般数据科学问题细化为考虑统计分析方面的更详细的问题。

5)认知验证者模式

认知验证者模式将复杂的问题分解为更小的、可管理的子问题。 然后将这些子问题的答案组合起来,为主要问题提供全面的答案。 当最初的问题太高级或需要额外的清晰度来提供完整的答案时,此方法非常有用。

例如:

用户:“如果我问一个有关气候变化的问题,请将其分解为三个较小的问题,这将有助于您提供更准确的答案。 结合这些子问题的答案得出最终答案。”

在这种情况下,人工智能会将有关气候变化的复杂问题分解为三个可管理的子问题。 在收到这些子问题的答案后,人工智能会将这些问题结合起来,提供更全面、更准确的答案。

此模式涉及生成多个问题以获得更准确的最终答案。 这是一个验证和整合信息以获得可靠的最终输出的过程

6)少样本提示方法

少镜头提示是教导人工智能模型遵循特定模式或执行任务的有效方法。 这个想法是在提出所需的问题之前向模型提供大量示例。 这有助于设置所需的行为并指导模型的响应。

考虑这样一个场景:用户尝试为新技术小工具起草一份简洁、引人注目的营销文案:

用户:“以下是一些技术营销文案的示例:‘使用我们最先进的无线耳机体验前所未有的音乐。’” “使用我们的超时尚运动相机以令人惊叹的 4K 捕捉您的世界。” 根据这些例子,为我们全新的人工智能智能手表起草一份营销文案。”

ChatGPT:“通过我们的人工智能智能手表增强您的生活方式,它是您健康、连接和生产力的伴侣。” 少样本学习的显着特征是它不需要详细描述如何执行任务。 相反,它需要演示正在做什么,这可以使其非常适合许多应用程序。

此外,该技术超出了简单的输入输出配对的范围。 还可以训练模型处理中间步骤以实现目标。

7)思维链提示

在他们最近的研究论文中,“思路链提示引发大型语言模型的推理作者 Jason Wei 和团队的目标是在大型语言模型中激发推理。 该团队没有使用传统的直接提示,而是使用一系列相互关联的提示,形成“思想链”。

例如,用户可能对人工智能对就业市场的潜在影响感兴趣:

用户:“您能简单解释一下人工智能的概念吗?”

ChatGPT:“人工智能,即AI,是指机器模仿人类智能行为的能力。 这是关于设计能够像人类一样思考和学习的机器,使它们能够执行语言翻译、决策和解决问题等任务。”

用户:“人工智能如何影响当前的就业市场?”

ChatGPT:“人工智能既创造了新的就业机会,又改变了现有就业机会的性质。一方面,它使日常任务自动化,导致某些部门的工作岗位流失。另一方面,它创造了对以前不存在的角色的需求,例如人工智能道德官员、数据分析师和机器学习工程师。此外,人工智能可以增强人类的角色,使人们能够更有效、更准确地完成任务。”

思维链提示遵循一系列相关提示,与模型保持“对话”,引导模型做出更精确、更适合上下文的响应。

从开发者的角度理解 ChatGPT API 并提示工程

从开发人员或研究人员的角度来看,即时工程是一个更复杂的过程。 它涉及算法和技术的设计,以帮助人工智能模型更有效地理解和响应提示。 这可能包括处理模糊提示、识别提示上下文或将提示链接在一起以刺激人工智能中更复杂的思维过程的策略

 

ChatGPT API 接口

在上图中,用户与由 GPT-4 提供支持的聊天界面进行交互。 他们的输入在输入人工智能模型之前,会通过专门的模块进行增强,以提高清晰度和上下文一致性。 该模块的作用是细化和增强用户的输入,以便更好地理解,同时维护对话的上下文。 人工智能根据完善的提示精心制作的响应通过聊天界面返回给用户。 交互历史记录不断更新,维护对话上下文。 总体而言,该图展示了通过即时工程技术实现的动态用户人工智能对话流程。

这款 ChatGPT API 的 界面采用各种超参数进行设计,使用户能够改进人工智能对提示的响应,使其更加有效和通用。 其中包括温度、最大长度和停止序列参数。 让我们探讨一下它们的功能以及在不同环境中的使用方式。

 

开放 AI Chatgpt API - Hyperparmeters

1)温度

温度参数影响人工智能响应的随机性。 较高的温度(例如 1.0)会鼓励更多的随机输出,从而导致多样化但可能偏离主题的响应。 相比之下,较低的温度(例如 0.2)会促使人工智能选择更具确定性的响应,这可能有利于集中和特定的输出,但可能缺乏多样性。

示例:如果您正在编写一个创意故事并想要不可预测的、富有想象力的元素,请将温度设置为更高的值。 提示可以是:“写一个关于一只时间旅行的猫的短篇故事。” 在高温下,你可能会看到一个狂野、奇幻、曲折的故事。

2) 最大长度

该参数控制模型输出的最大令牌长度,其中包括消息输入和消息输出中的令牌。 设置较高的限制允许更扩展的响应,而较低的限制则使输出保持简短和简洁。

示例:简要回答诸如“谁获得了 2020 年诺贝尔文学奖?”之类的琐碎问题。 您可能希望将最大长度设置为较低的值,以确保响应简洁而直接。

3) 停止序列

停止序列是特定的文本字符串,当模型遇到它们时,它会停止生成进一步的输出。 此功能可用于控制输出的长度或指示模型在逻辑端点处停止。

示例:对于一封正式的信件,您可以使用“您真诚的”作为停止序列,以确保 AI 不会生成超出信件正确结尾之外的任何其他文本。

4) 上P

“Top P”参数也称为核心采样,是一种动态选择模型预测每一步所考虑的单词数量的方法。 较低的值(例如 0.5)会带来更安全、更集中的输出。 较高的值(例如 0.9)包含更广泛的单词选择,从而导致输出更加多样化。

示例:如果您正在创建一个人工智能来写诗并希望它使用广泛的词汇和风格短语,您可以将“Top P”设置为更高的值。 提示可以是:“写一首关于秋天之美的诗。”

5) 频率惩罚

频率惩罚控制模型应该在多大程度上偏爱不太频繁的单词。 较高的惩罚(最高 1)鼓励模型使用不太常见的单词,而较低的值(低至 -1)鼓励模型使用更常见的单词。

示例:如果您正在尝试生成商业提案并希望避免使用行话,您可以将频率惩罚设置为较低的值,以保持语言清晰且易于理解。

6) 出席处罚

存在惩罚参数影响模型因生成对话历史记录中不存在的新想法或主题而受到的惩罚程度。 较高的值鼓励模型坚持已经提到的主题,而较低的值允许模型更自由地引入新概念。

示例:对于头脑风暴会议,您可以将出席惩罚设置为较低的值,以鼓励多样化的想法。 您可以使用诸如“为在线教育平台制定创新营销策略”之类的提示。

快速工程的行业应用

客户支持和常见问题解答生成

在客户支持领域,即时工程的效用怎么强调都不为过。 人工智能在该领域最具突破性的应用之一是人工智能驱动的聊天机器人的出现。 例如,考虑像 eBay 这样的电子商务平台。 他们利用先进的聊天机器人系统,该系统经过快速工程的微调来处理客户的询问。 该聊天机器人能够处理各种问题,包括但不限于提供交付更新、处理退款请求以及回答有关产品规格的查询。

当顾客询问“我的订单在哪里?”时,人工智能聊天机器人不仅会回复一般消息,还会回复一条通用消息。 相反,它会利用订单管理系统,获取实时数据,并提供个性化响应,例如“您的订单 #1234 目前正在运输中,预计明天晚上送达。” 这种个性化和相关的响应是精心设计的提示的直接结果,这些提示构成了这些智能聊天机器人系统的核心。

内容创作和营销

在内容创建和营销领域,即时工程是人工智能驱动创新的基石。 公司喜欢 grammarly破解 使用人工智能驱动的引擎帮助用户创建引人入胜且语法正确的内容。 这些平台根据提示工作,指导人工智能模型生成建议或修正,以提高内容的整体质量。

考虑一个用户旨在创建有关人工智能进步的引人入胜的内容。 他们可以使用这样的提示:“以简单、吸引人的方式为初学者解释人工智能的最新进展。” 人工智能利用这一提示,可以就复杂的人工智能概念起草一篇简洁、读者友好的文章,从而弥合知识差距并激发读者的兴趣。 这只是即时工程可以增强内容创建的多种方式之一。

编码协助和代码解释

在这种情况下,即时工程就像开发人员和人工智能之间的双向对话。 开发人员向人工智能提供提示——对他们需要实现的问题或功能的描述,人工智能以相关代码或建议进行响应,从而帮助软件开发过程。

此外,人工智能增强的编码工具,例如 GitHub 副驾驶,是利用 OpenAI 的专业知识开发的。 这些先进的工具经过了广泛的培训,可以执行复杂的任务,例如填写不完整的代码文件。 尽管编写代码的过程和完成代码的任务之间存在明显差异,但他们还是这样做。

教育和个性化学习

近年来,人工智能与教育领域的融合显着激增,其中快速工程发挥了关键作用。 人工智能导师的开发旨在提供个性化的学习体验,适应每个学生的学习节奏和风格。

以基于人工智能的学习平台为例 Duolingo。 它使用精心设计的提示来评估学生对新语言的熟练程度并提供合适的练习。 如果学生正在学习法语并且在词形变化方面遇到困难,人工智能导师可以引入量身定制的练习,例如“以现在时态词形变化动词‘manger’(吃)。” 不断评估学生的表现和进步,并相应地完善和调整提示,确保个性化和高效的学习体验。

快速工程的崛起势不可挡

当我们对即时工程的深入研究接近结论时,强调这一领域的真正新生程度至关重要。 我们正处于这样一个时代的边缘:人工智能不再只是响应预先编程的命令,而是演进到处理和执行精心设计的提示,从而产生高度具体的结果。

我们探索的众多应用程序,从客户支持到内容创建、数据分析和个性化学习,只是冰山一角。 随着这一领域的研究不断深入,我们可以期待即时工程的更加复杂和细致的用途。 人类创造力和人工智能独创性的融合正在推动我们走向一个未来,人工智能不仅会帮助我们,还会改变我们生活的各个方面。

在过去的五年里,我一直沉浸在机器学习和深度学习的迷人世界中。 我的热情和专业知识使我为 50 多个不同的软件工程项目做出了贡献,特别关注人工智能/机器学习。 我持续的好奇心也吸引了我对自然语言处理的兴趣,这是我渴望进一步探索的领域。