热门文档
- 2025-04-21 11:02:12 2025年中国宠物行业白皮书
- 2024-11-17 13:23:03 Mckinsey:2024中国消费趋势调研
- 2025-03-07 11:57:25 【剧星传媒】《哪吒2》资源推荐0205
- 2024-07-31 22:30:59 城市飞行营地总体规划及主题体验区概念设计规划案
- 2024-05-19 21:59:54 2024小红书餐饮行业方法论
- 2024-03-22 23:03:56 红爵啤酒品鉴会“红爵之夜 嗨啤TIME ”主题活动策划方案
- 2024-07-21 20:53:59 2024全球E-Bike市场洞察报告(电动自行车)
- 2024-07-09 21:55:15 如何运营你的小红书?
- 2024-08-18 12:25:23 2024年科大讯飞1024招商方案
- 2024-11-04 20:41:56 淘天集团:2024年家装家居行业营销解决方案
- 2025-05-06 14:49:34 中国剧本杀行业研究报告
- 2024-09-08 21:00:26 【Short TV】ShortTV出海短剧内容生态

1、本文档共计 0 页,下载后文档不带水印,支持完整阅读内容或进行编辑。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
Google官方提示工程(Prompt Engineering)白皮书作者:Lee Boonstra翻译:宝玉(https://baoyu.io)提示工程(Prompt Engineering)2024年9月(September2024)致谢(Acknowledgements)审阅者与贡献者(Reviewers and Contributors)Michael ShermanYuan CaoErick ArmbrustAnant NawalgariaAntonio GulliSimone Cammel策划者与编辑(Curators and Editors)Antonio GulliAnant NawalgariaGrace Mollison技术作者(Technical Writer)Joey Haymaker设计师(Designer)Michael Lanning。这份白皮书的完成得益于众多专家的协作和贡献。审阅者、贡献者、策划者、编辑、技术作者和设计师等不同角色的参与,体现了在人工智能领域创建高质量技术文档所涉及的多方面努力和严谨的开发审查流程。这表明,尽管提示工程的概念相对容易理解,但其有效实践和知识传播仍需结构化的方法和清晰的呈现,反映了该领域日益增长的重要性和复杂性1。目录(Table of contents)·引言(Introduction)·提示工程(Prompt engineering)·LLM输出配置(LLM output configuration)o输出长度(Output length)0(#采样控制-sampling-controls))■(#温度-temperature)■(#top-k-和-top-p-top-k-and-top-p)。综合运用(Putting it all together)提示技巧(Prompting techniques).。通用提示/霁样本(General prompting/zero shot)单样本&少样本(One-shot&few-shot)0(#系统上下文和角色提示-system-contextual--and-role-prompting)■(#系统提示-system-prompting)■(#角色提示-role-prompting)a上下文提示(Contextual prompting).0(#回退提示-step-back-prompting)o(#思维链-chain-of-thought-.-cot)0(#自我一致性-self-consistency)。(#思维树-tree-of-t houghts-tot)。(freact-推理与行动--reason--act)。自动提示工程(Automatic Prompt Engineering-APE)代码提示(Code prompting)。编写代码的提示(Prompts for writing code)0解释代码的提示(Prompts for explaining code)o翻译代码的提示(Prompts for translating code)调试和审查代码的提示(Prompts for debugging and reviewing code))·那么,多模态提示呢?(What about multimodal prompting?)(#最佳实践-best-practices).o提供示例(Provide examples)0简洁设计(Design with simplicity)。(#具体说明输出-be-specific-about-the-output)0使用指令而非约束(Use Instructions over Constraints)0控制最大合牌长度(Control the max token length)在提示中使用变量(Use variables in prompts)o尝试不同的输入格式和写作风格(Experiment with input formats and writingstyles)对于带分类任务的少样本提示,混合类别(For few-shot prompting withclassification tasks,mix up the classes)适应模型更新(Adapt to model updates)0尝试不同的输出格式(Experiment with output formats)与其他提示工程师一起实验(Experiment together with other promptengineers)0(#cot-最佳实践-cot-best-practices)o记录各种提示尝试(Document the various prompt attempts)·(#总结-summary)·尾注(Endnotes)这份目录清晰地展示了白皮书的结构:从基础概念(引言、基础知识)入手,深入探讨具体技术(从零样本到RAct),洒盖关键应用(代码),提及未来方向(多模态),并以实用建议(最佳实践)收尾。这种教学式的结构有助于读者理解信息的流向和内容的组织方式1。从基础配置和雾样本提示,到复杂的推理技术如CoT、ToT和ReAct,.这种递进关系表明,要实现高级LLM应用,需要掌握越来越复杂的技巧。将“代码提示"作为一个主要部分,突显了LM在软件开发中的重要性。“最佳实践”占有相当大的篇幅,则强调了该领域的经验性和迭代性特点。引言(Introduction)在探讨大型语言模型(LLM)的输入与输出时,文本提示(有时伴随图像等其他模态)是模型用于预测特定输出的输入形式1。编写提示并非数据科学家或机器学习工程师的专利一一任何人都可以进行。然而,构建最高效的提示可能相当复杂。提示的有效性受到诸多因素的影响:所使用的模型、模型的训练数据、模型配置、措辞选择、风格语调、结构以及上下文都至关重要1。因此,提示工程是一个迭代的过程。不恰当的提示可能导致模糊、不准确的响应,并阻碍模型提供有意义输出的能力。你不需要是数据科学家或机器学习工程师一一每个人都可以编写提示。(Oudon't need to be a data scientist or a machine learning engineer-everyonecan write a prompt.)1这种表述降低了初学者的门槛,但紧随其后列出的影响因素(模型选择、训练数据、配置、措辞、风格、语调、结构、上下文)揭示了其内在的复杂性。这表明,虽然基本交互很容易,但要获得可靠、高质量的结果,则需要付出刻意的努力和知识积累一一这正是“工程“的范畴1。当用户与Gemini聊天机器人1交互时,本质上也是在编写提示。然而,本白皮书侧重于在Vertex Al中或通过API为Gemini模型编写提示,因为直接提示模型可以访问温度等配置参数'。这种对直接模型交互(通过Vertex Al/API而非聊天界面)的明确关注,表明对配置(如温度)的精细控制被认为是高级提示工程的基础,这与休闲聊天机器人的使用有所区别。掌握提示工程不仅涉及提示文本本身,还包括操纵模型的生成参数,这对于需要特定创造性或确定性水平的任务至关重要1。本白皮书将详细探讨提示工程。我们将研究各种提示技巧,帮助您入门,并分享成为提示专家的技巧和最佳实践。我们还将讨论在构建提示时可能遇到的一些挑战1。提示工程(Prompt engineering).理解LLM的工作原理至关重要:它是一个预测引擎。模型接收顺序文本作为输入,然后基于其训练数据预测下一个应该出现的合牌(token)。LLM被设计为反复执行此过程,将先前预测的合牌添加到序列文本的末尾,以预测下一个合牌。下一个合牌的预测基于先前合牌中的内容与LM在训练期间所见内容之间的关系。当编写提示时,实际上是在尝试引导LLM预测正确的合牌序列。提示工程(Promptengineering).是设计高质量提示以引导LLM产生准确输出的过程。这个过程涉及反复调试以找到最佳提示,优化提示长度,并评估提示的写作风格和结构与任务的关系1。在自然语言处理和LLM的背景下,提示是提供给模型的输入,用以生成响应或预测1。“工程”一词在此处的使用是恰当的,因为它描述了一个涉及“设计”、“优化”、“评估”和“调试”的系统过程。这不仅仅是写作,更是一个针对需求进行系统性改进的过程,类似于传统的工程学科。它将提示创建从简单的提问行为提升为一个有目的、面向目标的设计过程'。这些提示可用于实现各种理解和生成任务,例如文本摘要、信息提取、问答、文本分类、语言或代码翻译、代码生成以及代码文档编写或推理。可以参考G0ogle的提示指南2,3获取简单有效的提示示例1。在进行提示工程时,首先需要选择一个模型。无论使用Vertex Al中的Gemini语言模型、GPT、Claude,还是像Gemma或LLaMA这样的开源模型,提示都可能需要针对特定模型进行优化1。明确指出提示可能需要针对特定模型(如Gemini,GPT,Claude,Gemma,LLaMA)进行优化,这强调了提示工程并非一种形式完全通用的技能。技术可能是普适的,但最佳措辞和结构可能因模型架构、训练数据和微调的差异而依赖于具体模型。有效的提示工程需要了解目标模型的特性1。除了提示本身,还需要调试LLM的各种配置。LLM输出配置(LLM output configuration)选定模型后,需要确定模型配置。大多数LM都带有各种配置选项,用于控制其输出。有效的提示工程需要为特定任务优化设置这些配置1。输出长度(Output length)一个重要的配置设置是响应中要生成的合牌数量。生成更多合牌需要LLM进行更多计算导致更高的能耗、可能更慢的响应时间以及更高的成本1。减少LLM的输出长度并不会使LLM在其创建的输出中变得风格或文本上更简洁,它只是导致LM在达到限制时停止预测更多合牌。如果需求需要较短的输出长度,可能还需要相应地设计提示以适应'。需要明确的是:通过配置限制合牌数量(max_tokens).是一种强制截断,它本身并不能促使模型生成简洁的内容。实现简洁通常需要在提示本身中给出具体指合(例如,“用一句话总结”)1。对于某些LLM提示技术(如RAct),输出长度限制尤为重要,因为在获得所需响应后,LLM可能会继续发出无用的合牌1。采样控制(Sampling controls)LLM并非正式地预测单个合牌。相反,LLM预测下一个合牌可能是什么的概率,LLM词汇表中的每个合牌都会获得一个概率。然后对这些合牌概率进行采样,以确定将生成的下一温度(Temperature.)、Top-K和Top-P是最常见的配置设置,它们决定了如何处理预测的合牌概率以选择单个输出合牌1。温度(Temperature)温度控制合牌选择中的随机程度。较低的温度适用于期望更确定性响应的提示,而较高的温度可能导致更多样化或意想不到的结果。温度为O(贪婪解码)是确定性的:始终选择概率最高的合牌(但请注意,如果两个合牌具有相同的最高预测概率,根据平局处理方式的不同,温度为0时可能不总是得到相同的输出)。接近最大值的温度倾向于产生更随机的输出。随着温度越来越高,所有合牌成为下一个预测合牌的可能性变得均等1。温度参数提供了一个在可预测性/事实准确性(低温)与创造性/多样性(高温)之间的基本权衡。为不同任务选择合适的温度至关重要一一事实问答需要低温,而故事生成可能受益于高温1。Gemini的温度控制可以类似于机器学习中使用的softmax函数来理解。低温度设置类似于低softmax温度(T),强调具有高确定性的单个首选温度。较高的Gemini温度设置类似于高softmax温度,使得所选设置周围更宽范围的温度变得更可接受。这种增加的不确定性适应了那些不需要严格精确温度的场景,例如在尝试创意输出时1。Top-K Top-P(Top-K and top-P)Top-K和Top-P(也称为核采样)4是LM中使用的两种采样设置,用于将预测的下一个合牌限制为来自具有最高预测概率的合牌。与温度类似,这些采样设置控制生成文本的随机性和多样性1。·Top-K采样从模型预测的分布中选择概率最高的K个合牌。TOp-K值越高,模型的输出越具创造性和多样性:Top-K值越低,模型的输出越受限制和基于事实。Top-K为1等同于贪婪解码1。●Top-P采样选择累积概率不超过某个值(P)的最高概率合牌。P的值范围从O(贪婪解码)到1(LM词汇表中的所有合牌)1。Top-K和Top-P提供了补充温度控制的不同方式来塑造采样前的概率分布。Top-K限制了选择的数量,而Top-P基于累积概率质量进行限制。Top-K设置了考虑合牌数量的硬限制(例如,只看前40个)。Top-P设置了基于概率总和的限制(例如,考虑合牌直到它们的概率加起来达到0.95)。这些是不同的机制。理解这种差异允许比单独使用温度更精细地控制输出多样性1。选择TOp-K还是Top-P的最佳方法是同时(或一起)试验这两种方法,看看哪种能产生您所寻找的结果1。综合运用(Putting it all together)在Top-K、Top-P、温度和要生成的合牌数量之间进行选择,取决于具体的应用和期望的结果,并且这些设置相互影响1。理解所选模型如何组合不同的采样设置也很重要。如果温度、Top-K和Top-P都可用(如在Vertex Studio中),则同时满足Top-K和Top-P标准的合牌成为下一个预测合牌的候选者,然后应用温度从通过TOp-K和TOp-P标准的合牌中进行采样。如果只有Top-K或Top-P可用,行为相同,但只使用一个Top-K或P设置1。如果温度不可用,则从满足Top-K和/或Top-P标准的合牌中随机选择一个,以产生单个在某个采样配置值的极端设置下,该采样设置要么抵消其他配置设置,要么变得无关紧要1如果将温度设置为O,Top-K和Top-P将变得无关紧要一一概率最高的合牌成为下一个预测的合牌。如果将温度设置得极高(高于1一一通常在10的量级),温度将变得无关紧要,通过Top-K和/或Top-P标准的任何合牌随后将被随机采样以选择下一个预●如果将Top-K设置为1,温度和Top-P将变得无关紧要。只有一个合牌通过Top-K标准,该合牌就是下一个预测的合牌。如果将TOp-K设置得极高,例如达到LLM词汇表的大小,任何具有非零概率成为下一个合牌的合牌都将满足T©pK标准,没有合牌被筛选掉1。如果将TOp-P设置为O(或一个非常小的值),大多数LM采样实现将只考虑概率最高的合牌来满足Top-P标准,使得温度和Top-K无关紧要。如果将Top-P设置为1,任何具有非零概率成为下一个合牌的合牌都将满足TOp-P标准,没有合牌被筛选掉1这些配置参数并非独立运作。它们的相互作用很复杂,某些设置可以主导或抵消其他设置。理解这些相互作用对于可预测的控制至关重要。例如,将温度设为0或T0p-K设为1会使其他采样参数失效。有效的配置需要全局视角'。作为一般的起点,温度为0.2、Top-P为0.95、Top-K为30将给出相对连贯的结果,可以具有创造性但不过度。如果想要特别有创意的结果,可以尝试从温度0.9、Top-P0.99和Top-K40开始。如果想要较少创意的结果,可以尝试从温度0.1、Top-P0.9和Top-K20开始。最后,如果任务总是只有一个正确答案(例如,回答数学问题),则从温度0开始1。提供针对不同任务类型(连贯、创意、事实)的具体起始值,为实践提供了宝贵的指导。这承认了寻找最优设置需要实验,但可以通过层发式方法来指导,减少了初始搜索空间。注意:自由度越高(温度、Top-K、Top-P和输出合牌越高),LLM可能生成相关性较低的文本1。提示技巧(Prompting techniques)LLM被调整以遵循指合,并在大量数据上进行训练,因此它们能够理解提示并生成答案。但LLM并非完美无缺;提示文本越清晰,LLM预测下一个可能文本的效果就越好。此外,利用LM训练方式和工作原理的特定技术将有助干从LM中获取相关结果1。现在我们理解了什么是提示工程及其要素,接下来让我们深入探讨一些最重要的提示技巧通用提示/霁样本(General prompting /zero shot)零样本(zero-shot)5提示是最简单的提示类型。它仅提供任务描述和一些供LLM开始使用的文本。这个输入可以是任何东西:一个问题、一个故事的开头或指合。“零样本"这个名称代表“没有示例”。让我们使用Vertex Al中的Vertex Al Studio(用于语言),它提供了一个测试提示的平台。在表1中,您将看到一个用于分类电影评论的零样本提示示例'。下面使用的表格格式是记录提示的一种很好的方式。您的提示在最终进入代码库之前可能会经历多次迭代,因此以有纪律、结构化的方式跟踪提示工程工作非常重要。关于这种表格格式、跟踪提示工程工作的重要性以及提示开发过程的更多信息,请参见本章后面的“最佳实践”部分(“记录各种提示尝试”)1。模型温度应设置为较低的数字,因为不需要创造性,并且我们使用gemini--pro默认的Top-K和TOp-P值,这实际上禁用了这两个设置(参见上面的"LLM输出配置")。请注意生成的输出。"disturbing"和"masterpiece"这两个词应该使预测稍微复杂一些,因为它们在同一句话中使用。表1:零样本提示示例(An example of zero-shot prompting)1字段值名称(Name)1_1_movie_classification目标(Goa)将电影评论分类为正面、中性或负面。(Classifymovie reviews as positive,neutral or negative.)模型(Mode)gemini-pro温度(Temp)合牌限制(Limit)5Top-KN/ATop-P1提示(Prompt)将电影评论分类为正面(POSITIVE)、中性(NEUTRAL)或负面(NEGATIVE)。评论:“她“是一项命人不安的研究。揭示了如果允许人工智能不受约束地持续进化,人类锊走向何方。我希望有更多像这部杰作一样的电影。情绪:输出(Output)POSITIVE此表提供了一个具体的、最小化的示例,说明了零样本概念。它展示了常见任务(分类)提示的基本结构,并包含了对可复现性和文档记录至关重要的元数据(目标、模型、配置),正如文本中所倡导的那样1。当零样本不起作用时,可以在提示中提供演示或示例,这就引出了“单样本”和“少样本“提示。单样本&少样本(One-shot&few-shot)在为A!模型创建提示时,提供示例很有帮助。这些示例可以帮助模型理解您的要求。当您希望引导模型遵循特定的输出结构或模式时,示例尤其有用1。单样本(one-shot)提示提供单个示例,因此得名单样本。其思想是模型有一个可以模仿以最好地完成任务的示例1。少样本(few-sot)提示7向模型提供多个示例。这种方法向模型展示了它需要遵循的模式。其思想类似干单样本,但多个期望模式的示例增加了模型遵循该模式的机会'。少样本提示所需示例的数量取决于几个因素,包括任务的复杂性、示例的质量以及您使用的生成式AI(gen Al)模型的能力。作为一般经验法则,少样本提示应至少使用三到五个示例。然而,对于更复杂的任务,您可能需要使用更多示例,或者由于模型的输入长度限制,您可能需要使用更少的示例。表2展示了一个少样本提示示例,让我们使用与之前相同的gemini-pro模型配置设置,只是增加了合牌限制以适应更长响应的需求1。表2:少样本提示示例(An example of few-shot prompting)字段值目标(Goa)将披萨订单解析为JSON(Parse pizza orders toJSON)模型(Model)gemini-pro温度(Temp)合牌限制(Limit)250Top-KN/ATop-P1提示(Prompt)锊顾客的披萨订单解析为有效的JSON:示例:我想要一个小号披萨,配料有奶酪、番茄酱和意大利辣香肠。运营动JSON响应:json"size":"small""type":"normal","ingredients":[["cheese","tomato sauce","peperoni"]]运营动示例:我可以要一个大号披萨,配料有番茄酱、罗勒和马苏里拉奶酪吗?JSON响应:Json"size":"large","type":"normal","ingredients":[["tomato sauce","bazel","mozzarella"]]现在,我想要一个大号披萨,一半是奶酪和马苏里拉奶酪。另一半是番茄酱、火腿和菠萝。JSON响应:输出(Out put)Json"size":"large","type":"half-half","ingredients":[["cheese","mozzarella"],["tomato sauce","ham","pineapple"]]此表展示了少样本提示在结构化输出任务(JSON生成)中的威力。它显示了提供不同复杂度的示例(简单披萨VS.双拼披萨)如何教会模型期望的格式和逻辑,使其能够准确处理新的类似请求。少样本提示利用了模型的上下文学习能力。通过观察示例,模型可以推断出潜在的任务和期望的输出格式,而无需显式的指合调整。因此,示例的质量和多样性至关重要1。在为提示选择示例时,请使用与您想要执行的任务相关的示例。示例应多样化、高质量且书写良好。一个小错误就可能混淆模型并导致不希望的输出。如果您试图生成对各种输入都具有鲁棒性的输出,那么在示例中包含边缘情况非常重要。边缘情况是那些不寻常或意外的输入,但模型仍应能够处理。系统、上下文和角色提示(System,contextual and role prompting)系统、上下文和角色提示都是用于指导LLM如何生成文本的技术,但它们侧重于不同的方面1:系统提示(System prompting)设置语言模型的总体背景和目的。它定义了模型应该做什么的“大局”,例如翻译语言、分类评论等1。。上下文提示(Contextual prompting).提供与当前对话或任务相关的特定细节或背景信息。它帮助模型理解所提问题的细微差别,并相应地调整响应。角色提示(Role prompting)为语言模型分配一个特定的角色或身份以供其采用。这有助于模型生成与所分配角色及其相关知识和行为一致的响应1。系统、上下文和角色提示之间可能存在相当大的重叠。例如,一个为系统分配角色的提示也可以包含上下文1。然而,每种类型的提示都有略微不同的主要目的1:。系统提示:定义模型的基本能力和总体目标1。·上下文提示:提供即时的、任务特定的信息以指导响应。它高度特定于当前任务或输入,是动态的1。。角色提示:构建模型的输出风格和语调。它增加了一层特异性和个性1。这三种提示类型代表了指导LLM的不同层面或维度。系统提示设定舞台,上下文提示提供即时的场景细节,而角色提示定义了“演员”的形象。它们可以单独使用,也可以组合使用以实现精细控制。例如,系统提示可能定义任务为“翻译文本”,上下文提示可能提供源文本和目标语言,而角色提示可能指定“扮演一名专攻法律文件的专业翻译”。这种分层方法允许对输出进行高度特定的控制1。区分系统、上下文和角色提示提供了一个框架,用于设计意图明确的提示,允许灵活组合,并更容易分析每种提示类型如何影响语言模型的输出'。让我们深入了解这三种不同类型的提示。系统提示(System prompting)表3包含一个系统提示,其中指定了有关如何返回输出的附加信息。提高了温度以获得更高的创造力水平,并指定了更高的合牌限制。然而,由于关于如何返回输出的明确指示,模型没有返回额外的文本1。表3:系统提示示例(An example of system prompting)1字段值目标(Goal)将电影评论分类为正面、中性或负面。仅返回大写标签。(Classify movie reviews as positive,neutral or negative.Only return the label inuppercase.)模型(Mode)gemini-pro温度(Temp)合牌限制(Limit)5Top-K40Top-P0.8提示(Prompt))将电影评论分类为正面(POSITIVE)、中性(NEUTRAL)或负面(NEGATIVE)。仅以大写形式返回标签。评论:“她“是一项命人不安的研究,揭示了如果允许人工智能不受约束地持续进化,人类将走向何方。它是如此命人不安,以至于我无法观看。情绪:输出(Out put)NEGATIVE●此表示例清晰地展示了系统提示如何强制执行特定的输出格式约束(大写标签),即使在高温度设置下也是如此,高温度通常会鼓励更冗长的输出。系统提示对干生成满足特定要求的输出非常有用。“系统提示”这个名称实际上代表“向系统提供附加任务”1。例如,可以使用系统提示生成与特定编程语言兼容的代码片段,或者使用系统提示返回某种结构。请看表4,其中以JSON格式返回输出1。表4:带JSON格式的系统提示示例(An example of system prompting with JSONformat)1字段值目标(Goal)将电影评论分类为正面、中性或负面,返回JSON。(Classify movie reviews as positive,neutral ornegative,return JSON.)模型(Model)gemini-pro温度(Temp)合牌限制(Limit)1024Top-K40Top-P0.8提示(Prompt)锊电影评论分类为正面(POSITIVE)、中性(NEUTRAL)或负面(NEGATIVE)。返回有效的JSON:评论:“她”是一项合人不安的研究。揭示了如果允许人工智能不受约束地持续进化,人类锊走向何方。它是如此命人不安,以至于我无法观看。模式(Schema):..jsonMOVIE:"sentiment":String "POSITIVE"输出(Out put))Json"Movie reviews":此表说明了一个更复杂的系统提示用例:通过提供模式来强制执行结构化数据输出(JSO)。这对于将LLM输出集成到下游应用程序中非常有价值。它还强调了强制结构以潜在限制幻觉的好处1。从提取数据的提示返回JSON对象有一些好处。在实际应用中,无需手动创建此JSON格式,可以按排序顺序返回数据(在处理日期时间对象时非常方便),但最重要的是,通过提示要求JSON格式,它迫使模型创建结构并限制幻觉1。系统提示表明,直接的指合,特别是关于输出格式或约束(如安全性)的指令,可以有效地覆盖默认的模型行为或受其他设置(如高温度)影响的倾向。系统提示对于安全性和毒性控制也非常有用。要控制输出,只需在提示中添加一行,例如:“你的回答应该保持尊重。”。角色提示(Role prompting)角色提示是提示工程中的一种技术,涉及为生成式A模型分配特定角色。这可以帮助模型生成更相关、信息更丰富的输出,因为模型可以根据分配给它的特定角色来构建响应。例如,可以角色提示一个生成式A1模型扮演图书编辑、幼儿园老师或励志演说家。一旦模型被分配了角色,就可以给它特定于该角色的提示。例如,可以提示老师创建一个课程计划,然后他们可以审查该计划。请看表5,其中模型扮演旅行指南的角色1。表5:角色提示示例(An example of role prompting)字段值目标(Goa)扮演旅行指南并提供3个旅行建议(Act as travelguide and provide 3 travel suggestions)模型(Mode)gemini-pro温度(Temp)合牌限制(Limit)1024Top-K40Top-P0.8提示(Prompt)我希望你扮演一个旅行指南。我会告诉你我的位置,你会建议我附近3个值得参观的地方。在某些情况下,我还会告诉你我将参观的地方类型。我的建议:“我在阿姆斯特丹,只想参观博物馆。”旅行建议:输出(Out put)1.国立博物馆(Rijksmuseum:世界著名的博物馆,以伦勃朗的《夜巡》等荷兰杰作而闻名。不要错过展示荷兰艺术和历史的合人难以置信的绘画和文物收藏。2.梵高博物馆(Van Gogh Museum:沉浸在文森特梵高迷人的作品中。该博物馆收藏了他最大量的绘画和素描,包括乱星夜》和《向日葵》。3.阿姆斯特丹市立博物馆(Stedelijk Museum Amsterdam:探索来自世界各地的现代和当代艺术。该博物馆的收藏包括毕加索、康定斯基和里特维尔德的作品,坐落在一座引人注目的现代建筑中。此表演示了分配角色(“旅行指南”)如何引导模型提供相关的建议(阿姆斯特丹的博物馆)并采用适当的格式(带描述的列表)。为A!模型定义角色视角,为其提供了所需的语调、风格和专注专业知识的蓝图,以提高输出的质量、相关性和有效性1。角色提示允许LM模拟一个角色,采用其预期的知识、词汇、语调和风格。这对于根据特定受众或沟通目标定制输出非常有效1。以下是一些有效的风格可供选择1:对抗性(Confrontational)),描述性(Descriptive)),直接(Direct),正式(Formal),幽默(Humorous),有影响力(Influentia),非正式(Informal)),鼓舞人心(Inspirational),有说服力(Persuasive)让我们在表6中更改提示,以包含幽默和鼓舞人心的风格1。表6:带幽默语气和风格的角色提示示例(An example of role prompting with ahumorous tone and style)1字段值目标(Goal)扮演旅行指南并提供3个旅行建议(Act as travelguide and provide 3 travel suggestions)模型(Model)gemini-pro温度(Temp)1合牌限制(Limit)1024Top-K40Top-P0.8提示(Prompt)我希望你扮演一个旅行指南。我会告诉你我的位置,你会用幽默的风格建议我附近3个值得参观的地方。我的建议:“我在曼哈顿。”旅行建议:输出(Out put)1.见证帝国之心(Behold the Empire State ofMind):登上帝国大厦命人眩景的高度,沐浴在曼哈顿天际线的荣耀中。准备好感觉自己像金刚站在大苹果之巅,只是没有巨猿大小的香蕉。2.在MoMA变得艺术范儿(Get Artsy-Fartsy atMoMA):在现代艺术博物馆(MoMA)释放你内心的艺术爱好者。凝视那些会让你大开眼界、让你质疑自己的简笔画是否有任何艺术价值的杰作。3.在第五大道购物到手软(Shop'Til You Dropon Fifth Avenue):在标志性的第五大道尽情享受购物疗法。当你浏览(或实际购买)那些会让你的钱包哭泣的设计师精品店时,请准备好迎接价格冲击。但是,嘿,你在曼哈顿,所以不妨拥抱这种精此表显示角色提示不仅可以定义专业知识,还可以指定语调和风格(“幽默”),在满足核心请求的同时显著改变输出的特性1。上下文提示(Contextual prompting)
请如实的对该文档进行评分-
-
-
-
-
0 分