企业宣传,产品推广,广告招商,广告投放联系seowdb

Prompt 探索指南 AI对话魔法 Engineering

理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将

想象一下,你在和一个智能助手聊天,你需要说出非常清晰和具体的要求,才能得到你想要的答案。Prompt Engineering 就是设计和优化与AI对话的“提示词”或“指令”,让AI能准确理解并提供有用的回应。

Prompt Engineering 主要包括以下几个方面

1.明确目标:希望AI完成什么任务。例如:写一篇文章,回答一个问题,进行一次对话?

2.设计提示词:设计出具体的提示词,提示词应该尽量简洁明了,包含所有必要的信息。比如:“写一篇关于环境保护重要性的文章。”

3.优化和测试:一开始的提示词可能并不完美,所以需要不断调整和优化,测试不同的表达方式,尝试找到最好的结果。

4.处理意外情况:有时候,AI可能会给出意外的回答,还需要预测这些意外情况,并设计出应对策略。

2.Prompt Engineering 如何兴起

理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将

1)早期阶段(2017年前)

2)初步探索(2017-2018)

3)快速发展(2019-2020)

4)成熟阶段(2020-2021)

5)技术手段演变(2021-2023)

6)现代阶段(2024及)

Prompt Engineering 技术介绍

理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将

1)无扩展训练技术(New Task Without Extensive Training)

Zero-shot和Few-shot是两种最基础的提示词工程,主要注意Prompt的格式(比如分段落,用序号的方式展现你想表达内容的逻辑顺序等)和讲述内容就可以,同时根据对输出结果的需求来调整参数。

① Zero-shot Prompting:直接给出任务和目标,注意prompt格式和参数调整。

② Few-shot Prompting:和Zero-shot相比就是多了几个“shots”,给予模型少量样本进行实现上下文学习;注意范例的挑选对模型表现很重要,不恰当的范例选择可能导致模型学习到不精确或有偏见的信息。

小工具:可以提供prompt模版,根据选择不同的模版,帮你设计基础的prompt内容。

基础参数:

temperature:控制生成文本的随机性,范围到;较低值使输出更确定,较高值增加随机性和多样性max_tokens:限制生成的最大标记数,一个标记大是一个单词或标点符号top_p:控制基于累积概率的采样,较低值会使生成的文本更加确定(例如:top_p 意味着只会从概率最高的前的标记中进行采样)n:生成回复个数,默认个stopNone:不设置停止条件presence_penalty:设置为不惩罚重复内容,较高值会鼓励模型生成与上下文中已有内容不同新内容frequency_penalty:设置为不惩罚频繁出现的内容,较高值会减少模型生成重复词语的可能性

2)推理与逻辑技术(Reasoning and Logic)

推理与逻辑技术能使 LLM 更加深入与复杂的逻辑思考。如:Chain-of-Thought (CoT)、Automatic Chain-of-Thought (Auto-CoT)、Self-Consistency、Logical CoT等,都旨在促进模型以更结构化和逻辑性的方式处理信息,从而提高问题解決的准确性和深度。

① Chain-of-Thought (CoT)

原理:为了克服LLM在处理复杂推理任务方面的限制,Wei et al. (2022) ()提出了CoT,通过引入一种特殊的提示策略,促进模型进行连续和逐步的思考过程,连贯思考技术的主要贡献在于能够更有效地激发LLM产出结构化且深入思考的回答。

示例说明:标准提示中,模型直接给出答案,而没有解释或展示其推理过程。在CoT提示中,模型不仅给出答案,还详细展示了其推理过程。CoT通过在通过在提示中加入详细的推理步骤,引导模型逐步解决问题。适用于需要复杂推理和多步骤计算的任务。

② Automatic Chain-of-Thought (Auto-CoT) Prompting

原理:CoT是一种手动的方式,过程耗时且效率低下,因此 Zhang et al. (2022) ()提出了 Auto-CoT 技術。通过自动生成“逐步思考”式的提示,帮助大模型实现推理链。通过多样化的样本生成来提升整体的稳定性,能够对多种问题产生多个独特的推理链,并将它们组合成一个终极范例集合。这种自动化和多样化的样本生成方式有效地降低了出错率,提升了少样本学习的效率,并避免了手工构建CoT的繁琐工作。

示例说明:左侧展示了Auto-Cot的四个步骤(示例构建、聚类、示例选择和上下文推理)。首先,通过聚类算法将问题示例分组,然后从每个组中选择具有代表性的示例,构建一个包含详细解答的示例集,最后,通过在上下文中提供这些示例,帮助LLM进行推理并得出正确答案。

③ Self-Consistency

原理:Wang et al. (2022)()提出了一种新型解码策略,目标在于取代链式思考提示中使用的天真贪婪解码。从语言模型的decoder中提取多条不同的推理路径,从而生成多种可能的推理链,增加找到正确答案的可能性。

示例说明:不同于简单CoT的贪婪解码方式,该技术先生成多个不同的推理路径,不同路径可能会得出不同答案,然后通过对所有生成的路径进行汇总,选择最一致的答案为最终输出。第一步:模型生成多个推理路径,得到不同的答案($18、$26、$18) 第二步:汇总推理路径,选择最一致的答案($18)

④ Logical Chain-of-Thought (LogiCoT) Prompting

原理:Zhao et al. (2023)()提出的 LogiCoT,与之前的逐步推理方法 (例如CoT) 相比,引入了一个全新的框架。该框架吸取了symbolic logic的精髓,以一种更加结构化和条理清晰的方式来增强推理过程。采用了反证法这一策略,通过证明某一推理步骤若导致矛盾则该推理步骤错误,从而来核查和纠正模型产生的推理步骤。

图例说明:上方是CoT,推理过程是线性的,每一步都依赖于前一步,下方是LoT,推理过程是树状的,可以在某些步骤上进行分支,每个节点仍代表一个推理步骤,但节点之间有更多的连接方式,形成了一个分支结构。这种方法允许探索多个可能的推理路径。图中虚线框标出了某些分支节点,表示这些节点可以在不同的路径上进行组合和选择。因此LoT方法能更灵活地处理复杂问题,允许同时考虑多个推理路径,从而可能得到更全面和准确的结果。

⑤ Chain-of-Symbol (CoS) Prompting

原理:为了克服LLM依赖容易模糊且可能带有偏见的自然语言的限制,Hu et al. (2023)()提出了 CoS。这种方法不适用自然语言,而是采用简化的符号作为提示,优势在于使提示更加清晰简洁,提高模型处理空间关系问题能力,同时运作原理更易使人理解。

示例说明:下图展示了CoT和CoS在解决一个从一堆砖块中取出特定砖块的问题时的表现。CoT输出A, E, D,结果错误,没有遵循正确移出顺序。CoS通过将Prompt的结构从文字转换为符号(如下):

1.B/A/D/E/C

模型输出:C, E, D

3)减少幻觉技术(Reduce Hallucination)

减少幻觉现象(幻觉是指你从大语言模型中得到错误的结果,因为大语言模型主要基于互联网数据进行训练,其中可能存在不一致的信息,过时的信息和误导的信息)是LLM的一种挑战,技术如 RAG、ReAct Prompting、Chain-of-Verification (CoVe)等,都是为了减少LLM产生无依据或者不准确输出的情况。这些方法通过结合外部信息检索、增强模型的自我检查能力或引入额外的验证步骤来实现。

① RAG (Retrieval Augmented Generation)

原理:RAG的核心为“检索+生成”,前者主要是利用向量数据库的高效存储和检索能力,召回目标知识;后者则是利用大模型和Prompt工程,将召回的知识合理利用,生成目标答案。

流程:完整的RAG应用流程主要包含两个阶段。

② Chain-of-Verification (CoVe) Prompting

原理:Dhuliawala et al. (2023) ()提出了一种称为 CoVe 的方法,该方法主要有四个步骤:初步答案、规划验证问题以检验工作、独立解答这些问题、根据验证结果来修正初步答案。该方法通过精心设计验证问题,模型能够辨识自身的错误并进行修正,从而显著提高了准确率。

示例说明:下图表展示了一个查询和验证过程,目的是找出一些在纽约市出生的政治家。整个过程分为四个步骤,通过验证初步信息来确保最终响应的准确性。

4)微调和优化(Fine-Tuning and Optimization)

① Automatic Prompt Engineer (APE)

原理:Zhou et al. (2022)()提出的APE技术,其突破了手动和固定提示的限制,能够针对特定任务主动生成并选择输出有效的提示。先分析用户输入,设计一系列候选指令,再透过强化学习选择最优提示,并能适应不同情景。

示例说明:下图展示了APE技术的几个步骤。

5)其他手段(Others Techniques)

以下四种Prompt Engineering手段个人认为比较有意思,因此做简要介绍。

① Chain-of-Code (CoC) Prompting

原理:CoC 技术是Li et al. (2023)()提出的,通过编程强化模型在逻辑与语义任务上的推理能力,将语义任务转化为灵活的伪代码。CoT主要用于解决需要逻辑推理、问题分解和逐步解决的任务,如逻辑推理问题、文本分析等;CoC则专注于编程任务,通过分步引导模型生成代码解决编程问题。

示例说明:下图展示了利用三种不同的方法来回答一个问题:“我去过多少个国家?我去过孟买、伦敦、华盛顿、大峡谷、巴尔的摩,等等。”

总结:直接回答法没有解释过程,容易出错。思路链法逐步解释,但仍可能出错。代码链法通过编程逻辑,确保了答案的准确性,在三种方法中表现最好。

② Contrastive Chain-of-Thought (CCoT) Prompting

原理:传统CoT忽略了从错误中学习的总要环节,Chia et al. (2023)()提出CCoT技术。这种技术通过同时提供正确和错误的推理示例来要到模型。但是该种技术还是面临一些挑战,即如何为不提供问题自动生成对比示例。

示例说明:下图展示了三种提示方法在回答数学问题时的表现。

1)标准提示:Prompt中回答直接给出答案,但没有解释过程,导致第二个问题答案:37.5%,回答错误。

2)思维链(CoT):Prompt中加入了详细的解释过程,使得模型在输出修复牙齿比例问题中能更准确地思考,但是答案为36.67%,还是错误。

3)对比思维链(Contrastive CoT):Prompt中加入了正确答案和错误答案的详细解释说明。最终输出答案50%正确。Contrastive CoT 不仅提供正确的解释,还展示了错误的解释,帮助理解和验证答案的正确性。

③ Managing Emotions and Tone

原理:Li et al. (2023) ()提出了EmotionPrompt 技术。通过在提示中加入情感词汇或情感上下文来引导模型更好地理解和回应用户的情感需求。识别情感需求:识别出希望模型生成的响应中包含的情感类型(如开心、悲伤、愤怒等)。构建情感提示词:在原始提示中加入情感词汇或上下文,以引导模型生成符合预期情感的响应。测试和调整:生成响应后根据实际效果进行测试和调整,确保模型生成的内容符合预期的情感。

示例说明:下图展示了不同类型的情感表达及其在不同理论框架下的分类和交叉关系。主要包含了三个理论框架:自我监控、社会认知理论和认知情绪调节,并列出了每个框架下的具体情感表达句子(EP01-EP11)。通过这种分类方式,可以看出不同情感表达在不同理论框架和维度下的交叉关系和应用场景。这种分类有助于更好地理解和应用情感表达在不同情境中的作用。右侧展示了这些情感表达在不同社会效应和自尊维度下的分类:

1)社会效应(Social effect)包含:EP01, EP02, EP03, EP04, EP05, EP06(EP06是EP01, EP02, EP03的复合体)

2)自尊(Self-esteem)包含:EP07, EP08, EP09, EP10, EP11

3)备注:EP06 是EP01, EP02, 和EP03的复合体。

④ Rephrase and Respond (RaR) Prompting

原理:由于LLM经常忽略了人类思维方式和LLM思维方式间的差异,Deng et al. (2023)()提出了RaR技术。通过让LLM在提示中重新表述和扩展问题,从而提升模型对问题的理解和回答准确性,改写后的问题能够更清晰地传递语意,减少问题模糊性。

示例说明:RaR 主要分为两个步骤,通过对 prompt 理解和重述,语言模型可以更好地理解和回答问题。

1)重述问题:首先给定一个原始问题,“取 Edgar Bob 中每个单词的最后一个字母并将它们连接起来”。然后重述使其更清晰、更详细。重述后的问题变成“你能识别并提取 Edgar Bob 中每个单词的最后一个字母,然后按它们出现的顺序将它们连接起来吗?”

2)回答重述后的问题:重述后的问题是“你能识别并提取 Edgar Bob 中每个单词的最后一个字母,然后按它们出现的顺序将它们连接起来吗?”回答为“Edgar Bob 中每个单词的最后一个字母是 r 和 b,按出现顺序连接起来是 rb”。

4.Prompt Engineering 的应用案例

理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将

1)项目背景

在京东物流的大件商品入库环节,采集人员需要根据产品制定的划分标准人工判断并录入商品件型。然而,件型维护错误会导致物流方面的收入损失、客户投诉及调账等问题。为了解决这些问题,我们通过技术手段对存量SKU进行件型异常识别,并在前置环节实现件型推荐,对新入库的SKU进行件型录入预警。件型的判断高度依赖于商品品类,但由于大部分SKU为外单商品,其品类维护主要依赖于商家和销售,超过40%的外单商品品类被归为“其他服务”。因此,我们首先对这些品类进行修正,再基于修正后的数据展开异常识别和件型推荐。

随着大模型应用的广泛普及,针对第二阶段件型判断,我们通过引入大模型对文本识别技术方案难以覆盖的SKU进行补充识别(提升覆盖率)。以下会尝试上述介绍的几种基础Prompt Engineering手段,对空调品类的商品进行件型判断,并对比几种提示词工程在识别效果上的差异。

2)应用举例

识别目标:通过告诉大模型空调相关品类的件型判断标准,让大模型判断商品的件型。下面主要通过不同的提示词工程手段,来调整prompt以提升输出精确率。

样本说明:数据总共包含7个字段(goods_code:商品编码,goods_name:商品名称, item_third_cate_name:修正后品类,weight:重量(kg), big_goods:件型编码,big_goods_desc:件型中文,label:业务打标的正确件型(检验模型结果的label)。

测试代码:

基础GPT调用Demo:主要设定了模型的角色和任务,为了保证结果输出的稳定性,分别将参数 temperature设置为0,同时件型最长字符串不超过6个,因此设置max_tokens=6,仅输出一个结果,设置top_p=0.1。

def classify_product rules_text:try:client  OpenAIapi_keyosenvironbase_urlosenvirondescription  f# 设定模型的角色和任务system_message  "你是物流行业的一位专家,请基于规则和商品描述,仅输出该商品的件型,不要输出其他任何信息。"user_message  ffresponse  clientchatcompletionsmodelmessages{:  : system_message}{:  : user_message}temperature # temperature 控制生成文本的随机性,范围为0到1。较低的值使输出更确定和一致,而较高的值增加随机性和多样性。max_tokens # 限制生成的最大标记数,一个标记大约是一个单词或标点符号。top_p # 数控制基于累积概率的采样,较低的 top_p 值会使生成的文本更加确定,只会考虑累积概率达到较低阈值的标记。n responsechoicesmessagecontentstrip Exception  e: stre

Zero-shot:准确率44.44%:

prompt1  """件型的判断和商品的细分品类、商品来源和商品参数有关。细分分类为:1. 挂机空调:描述或型号中含“挂机空调”或“G”或“GW”。2. 柜机空调:描述或型号中含“柜机空调”或“L”或“LW”。3. 家用空调:描述中含“家用空调”或型号中含“KFR”。4. 中央空调/天花机/风管机/多联机/移动空调一体机:描述或名称中含“中央空调”、“天花机”、“风管机”、“多联机”或“移动空调一体机”。5. 其他类别空调:不符合上述任何一个特定类型的空调。商品来源分为自营和外单两种,商品编码以“EMG”开头为外单,否则为自营。件型包括:超小件、小件、中件-半件、中件、大件-半件、大件、超大件-半件、超大件。件型规则如下:1. 自营挂机空调:- 匹数≤3p或型号≤72为中件-半件- 匹数>3p或型号>72为大件-半件2. 自营柜机空调:- 匹数≤2p或型号≤51为中件-半件- 2p<匹数≤3p或51<型号≤72为大件-半件- 匹数>3p或型号>72为超大件-半件3. 自营家用空调:- 描述含“大2p”或型号≤51为中件-半件- 描述含“大3p”或51<型号≤72为大件-半件- 型号>72为超大件-半件4. 自营及外单的家用中央空调、天花机、风管机、多联机及移动空调一体机:- 重量<15kg为超小件- 15kg≤重量<25kg为小件- 25kg≤重量<40kg为中件- 40kg≤重量<60kg为大件- 60kg≤重量<100kg为超大件5. 外单家用空调、挂机空调、柜机空调:- 匹数≤2p或型号≤51为中件-半件- 2p<匹数≤3p或51<型号≤72或描述中提到“大2p”为大件-半件- 匹数>3p或型号>72或描述中提到“大3p”为超大件-半件"""

Few-shots:在Zero-shot基础上加了两个示例说明,准确率55.56%。

prompt2  """...同prompt1举例:1. 编码:100885342,描述:酷风(Coolfree)中央空调一拖多多联机 MJZ-36T2/BP3DN1-CF4,重量:21,件型是:小件。2. 编码:100014630039,描述:COLMO AirNEXT空气主机 3匹 AI智能空调新一级全直流变频空调立式柜机 KFR-72LW/CE2 线下同款,重量:21,件型是:超大件-半件。"""

Chain-of-Thought (CoT):和Few-shots的区别,将两个示例分步骤展示,向模型说明进行件型判断的逻辑顺序,准确率66.67%。

prompt3  """...同prompt1举例:1. 编码:100885342,描述:酷风(Coolfree)中央空调一拖多多联机 MJZ-36T2/BP3DN1-CF4,重量:21。- 第一步:判断商品来源。商品编码不以“EMG”开头,因此商品来源为自营。- 第二步:判断细分品类。描述中含有“中央空调”以及“多联机”,因此细分品类为中央空调。- 第三步:判断件型。重量为21kg,满足15≤重量<25,因此件型为小件。2. 编码:100014630039,描述:COLMO AirNEXT空气主机 3匹 AI智能空调新一级全直流变频空调立式柜机 KFR-72LW/CE2 线下同款,重量:21。- 第一步:判断商品来源。商品编码不以“EMG”开头,因此商品来源为自营。- 第二步:判断细分品类。描述中含有“KFR”和“LW”,优先判断细分品类为柜机空调。- 第三步:判断件型。由于描述中含有“3匹”且型号为72,满足2p<匹数≤3p或51<型号≤72,因此件型为大件-半件。"""

Self-Consistency:依旧使用prompt2,但调整调用参数和解析逻辑,让模型进行多次输出,取出现频率最高的结果为最终结果,精确率为66.67%。

 randomdef classify_product_self_consistency rules_text:try:client  OpenAIapi_keyosenvironbase_urlosenvirondescription  fsystem_message  "你是物流行业的一位专家,请基于规则和商品描述,仅输出该商品的件型,不要输出其他任何信息。"user_message  ff# 多次请求模型,获取多个输出responses  clientchatcompletionsmodelmessages{:  : system_message}{:  : user_message}temperaturemax_tokenstop_pn piece_type_options   response  responseschoices:piece_type_match  researchr responsemessagecontent piece_type_match:piece_type  piece_type_match piece_type   piece_type_options:piece_type_optionsappendpiece_type:piece_type  responsemessagecontent piece_type   piece_type_options:piece_type_optionsappendpiece_type# 如果有多个不同的件型结论,返回一个随机的件型结论 piece_type_options  : randomchoicepiece_type_optionselif piece_type_options: piece_type_options: "无法确定件型,请检查规则或商品描述。" Exception  e: stre
© 版权声明
评论 抢沙发
加载中~
每日一言
不怕万人阻挡,只怕自己投降
Not afraid of people blocking, I'm afraid their surrender