Prompt,,提示词,是使用生成式AI的必备前提,好的提示词能让生成式AI给出更精准的结果,不仅能节省时间,还能节省tokens(这可是美金呀),所以在生成式AI出来后,就有Prompt Engineer提示工程师之说。于是,就有很多分享提示的文章,还有很多网站,专门收集各种场合的提示词。
OpenAI官方也给出了提示词指南,原文见https://platform.openai.com/docs/guides/prompt-engineering。我们接下来看看给出的建议。
写出清晰的提示词
GPT 模型对你写的提示词理解得越清晰,就会为你提供更准确和满意答案。
具体方法:
- 详细描述的问题:描述越清晰,你就能得到越符合预期的答案
- 让 GPT 扮演一个角色:给GPT设定一个身份,它就用该身份的思维给出结果
- 使用分隔符:为了让 GPT更方便地阅读和理解,可以用如“----”分隔符区分不同提示词,比如操作的内容(翻译的文章)和指令(要求翻译的指令)
- 给出GPT思考路径:对于有逻辑的内容生成,可以让 GPT 一步接一步(step by step)地给出结果
- 提供示例:可以举一个需要的案例,让GPT参照。特别是需要输出一些固定格式的内容时非常有用
- 提示限定:为了让输出更符合预期(节省tokens),在提示词里包含输出的限定,比如长度,和题材等
提供参考文本
语言模型可以自信地发明虚假答案(叫生成式AI的幻觉),尤其是在被问及深奥的主题、引文、 URL 时,为模型提供参考文本可以帮助以更少的捏造来回答。
具体方法:
- 指示模型使用参考文本回答
- 指示模型使用参考文本中的引文进行回答
复杂任务拆分为简单的子任务
化繁为简,把一个大而复杂的任务,分化成多个小任务,让GPT回复,如果有前后置关系,要给出明确的逻辑关系,方便GPT准确回复。
具体方法:
- 分类:利用意图分类确定与用户查询最相关的指令
- 分层:对于需要长时间对话的对话应用,总结或筛选先前的对话内容
- 递归:分步总结长文档,并递归地构建完整的总结
让模型多想一会
让模型进行一个相对得杂的数据运算,可以马上得不到正确的答案,但如果让模型逐步思考,就会得到较好的答案。
具体方法:
- 在匆忙得出结论之前,指示模型制定自己的解决方案
- 使用内心独白或一系列查询来隐藏模型的推理过程
- 询问模型在之前的传递中是否遗漏了任何内容
使用外部工具
通过向模型提供三方工具的输出,能更好地来弥补模型的弱点。比如目前通用的“文本检索系统(RAG)”,可以先从本地知识库中找到相关的内容,然后再输出给模型,让模型参考,输出更贴切的内容。
再比如数据运算,模型并不擅长,可以借助“计算器”。如果一项任务可以通过工具而不是语言模型更可靠或更高效地完成,请使用工具,这样结合两者长处,达到最佳效果。
具体方法:
- 使用基于嵌入的搜索实现高效的知识检索
- 使用代码执行来执行更准确的计算或调用外部 API
- 授予模型对特定函数的访问权限
全面系统的测试
如果能对性能进行量化,那么就能更好地提高性能(有了度量衡,就能量化了)。量化模型输出结果的质量,不断优化提示词,提高变化后的输出质量。
具体方法:
- 根据标准答案的参考评估模型输出效果
文章来源微信公众号
想要更快更方便的了解相关知识,可以关注微信公众号

















