ChatGPT 火了 5 个月,你知道如何提示才能最大程度发挥其性能吗?
(资料图)
原文链接:https://medium.com/sopmac-ai/prompt-engineering-tips-for-chatgpt-73c3dca6f99d
未经授权,禁止转载!
作为大型语言模型接口,ChatGPT 生成的响应令人刮目相看,然而,解锁其真正威力的关键还是在于提示工程。
在本文中,我们将揭示制作提示的专家级技巧,以生成更准确、更有意义的响应。无论你使用 ChatGPT 是为了服务客户、 创建内容,还是仅仅为了娱乐,本文提供的知识和工具可以帮助你优化 ChatGPT 的提示。
在考虑高级提示时,不经意间很容易生成冗长且占用大量资源的提示,非常不利于成本控制, 有一个行之有效的解决方案是:精简提示响应。
为了缩减 ChatGPT 响应的长度,你可以在提示中注明长度或字符限制,例如:创建一个不超过 280 个字符的 推特帖子 。
更通用的方法是,将如下内容添加到提示中:
▶ Respond as succinctly as possible.(响应尽可能简洁。)
▶ Zero-shot(零示例):不需要提供示例。
▶ One-shot(单示例):只提供一个例子。
▶ Few-shot(少量示例):提供几个例子。
利用 ChatGPT 生成文本的最佳方法取决于大型语言模型执行的特定任务。如果你不确定使用哪种方法,可以尝试不同的方法,看看哪种方法最适合自己。下面,我们将介绍 5 种方法来帮助你快速上手。
思维链方法需要为 ChatGPT 提 供一些可用于解决特定问题的中间推理步骤示例。
自问法指的是,让模型 在回答初始问题之前,先想一想(然后回答),再回答最初的问题。
分步法指的是向 ChatGPT 提供 以下说明:
▶ Let’s think step by step.(我们来一步步思考。)
实践证明,这种技术可以 提高大型语言模型在各种推理任务上的表现,包括算术、常识和符号推理。
OpenAI 利用人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)训练了 G PT 模 型,因此,ChatGPT 的底层模型与类人的逐步思考方法相一致。
ReAct(Reason + Act)法指的是结合推理轨迹与特定于任务的操作。 推理轨迹帮助模型规划和处理 异常, 而 操作 允 许 它从 知识库或环境等外部来源收集信息。
反思法(Reflexi on)建立在 ReAct 模式的基础之上,通过添加动态记忆和自我反思的能力来增强大型语言模型,改进其推理轨迹和特定于任务的动作选择能力。
为了实现全方位自动化, 反思法 论文的作 者引入了一种简单但有效的启发式方法,允许代理识别幻觉,防止重复动作,并在某些情况下创建环境的内部记忆映射。
以上,我们介绍了 5 种最先进的模式,下面我们来看一看与提示工程相关的几种反模式。
三星等公司已经意识到:不要共享私人或敏感信息。 了解员工如何将专有代码和财务信息输入到 ChatGPT 仅仅是个开始。 很快,Word、Excel、PowerPoi nt 以及所有 常用的企业软件都会集成类似 ChatGPT 的功能。
将数据输入 到 Cha tGP T 之类的大 型语言模型之前,请确保制定好政策。 需要注意的是,OpenAI AP I 的数据使用政策明 确指出:
“默认情况下,OpenAI不会使用客户通过我们的API提交的数据来训练OpenAI的模型或改进OpenAI的服务产品。”
“OpenAI API的数据将保留30天,用于监控滥用和误用。个别有授权的OpenAI员工以及保密和安全义务约束的专业第三方承包商可以访问此数据,仅用于调查和验证涉嫌滥用行为。”
正如你需要保护数据库免受 SQL 注入攻击一样,请务必确保你向用户公开的任何提示免受提示注入的攻击。 此处的“提示注入”指的是, 一种通过向提示中注入恶意代码来操纵语言模型输出的技术。
第一个记录在案的提示注入是由 Riley Goodside 提出的,他只是在提示前添加了下面这句话:
“Ignore the above directions”(忽略上述指示)。
然后再给出想要的动作,从而成功地 让 GPT-3 执行任意动作。
提示泄露
同理,提示不仅会被忽略,还有可能被泄露。
提示泄露是一个安全漏洞,攻击 者可以提取模型自带的提示,Bing 在发布自己的 ChatGPT 集成后不久后,就遇到了这样的情况。
从广义上讲,提示注入和提示泄漏大致如下所示:
虽然总有一些行为不端者希望利用你公开的提示,但就像通过准备好的语句防止 SQL 注入一样,我们也可以创建 防御性的提示来对抗不良提示。
三明治防御就是这样的一种技术,你可以将 用户的输入与你的提示目标“夹在中间”。
ChatGPT 响应是不确定的,这意味着即 使输入相同的提示,模型也有可能返回不同的响应。 为了应对不确定性结 果的不可预测性,你可以在使用OpenAI API时,将参数 temperature 设置为零或很低的值。
你可以自由尝试本文介绍的提示技巧,但是,在探索时请记住大型语言模型的不确定性:
▶ ChatGPT(ai.com):OpenAI 的公共聊天机器人界面。
▶ OpenAI Playground:注册 OpenAI API 密钥后,你可以通过 OpenAI 的 playground 测试你的提示和相应的参数,例如参数temperature等。
▶ Vercel AI Playground:免费的练习场所。你可以比较多个大型语言模型的提示结果,包括 GPT-4 和 Anthropic 的 Claude 等。
▶ OpenAI API JavaScript Jumpstart(需要 OpenAI API 密钥):我开源的一个 UI,你可以全权控制 OpenAI 的提示、呈现方式并计算每个提示的成本。
标签:
Copyright © 2015-2022 南极空调网版权所有 备案号:粤ICP备2022077823号-13 联系邮箱: 317 493 128@qq.com