OpenAI API 聊天功能

2023-03-17 11:14 更新

使用 OpenAI Chat API,您可以使用 gpt-3.5-turbo 和 gpt-4 构建自己的应用程序来执行以下操作:

  • 起草电子邮件或其他书面文件

  • 编写 Python 代码

  • 回答有关一组文件的问题

  • 创建会话代理

  • 为您的软件提供自然语言界面

  • 一系列科目的导师

  • 翻译语言

  • 模拟视频游戏中的角色等等

本指南解释了如何为基于聊天的语言模型进行 API 调用,并分享获得良好结果的技巧。您还可以在 OpenAI Playground 中试用新的聊天格式。

介绍

聊天模型将一系列消息作为输入,并返回模型生成的消息作为输出。

尽管聊天格式旨在简化多回合对话,但它对于没有任何对话的单回合任务同样有用(例如之前由指令遵循模型(如 text-davinci-003)提供的任务)。

示例 API 调用如下所示:

# Note: you need to be using OpenAI Python v0.27.0 for the code below to work
import openai

openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Who won the world series in 2020?"},
        {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."},
        {"role": "user", "content": "Where was it played?"}
    ]
)

主要输入是消息参数。消息必须是一个消息对象数组,其中每个对象都有一个角色(“系统”、“用户”或“助手”)和内容(消息的内容)。对话可以短至 1 条消息或填满许多页面。

通常,对话首先使用系统消息进行格式化,然后是交替的用户和助理消息。

系统消息有助于设置助手的行为。在上面的例子中,助手被指示“你是一个有用的助手”。

gpt-3.5-turbo-0301 并不总是高度关注系统消息。未来的模型将被训练为更加关注系统消息。

用户消息有助于指导助手。它们可以由应用程序的最终用户生成,或由开发人员设置为指令。

助手消息帮助存储先前的响应。它们也可以由开发人员编写,以帮助提供所需行为的示例。

当用户指令引用先前的消息时,包括对话历史记录会有所帮助。在上面的示例中,用户的最后一个问题是“它在哪里播放?”仅在有关 2020 年世界大赛的先前消息的上下文中才有意义。由于模型对过去的请求没有记忆,因此必须通过对话提供所有相关信息。如果对话不适合模型的令牌限制,则需要以某种方式缩短它。

响应格式

API 响应示例如下所示:

{
 'id': 'chatcmpl-6p9XYPYSTTRi0xEviKjjilqrWU2Ve',
 'object': 'chat.completion',
 'created': 1677649420,
 'model': 'gpt-3.5-turbo',
 'usage': {'prompt_tokens': 56, 'completion_tokens': 31, 'total_tokens': 87},
 'choices': [
   {
    'message': {
      'role': 'assistant',
      'content': 'The 2020 World Series was played in Arlington, Texas at the Globe Life Field, which was the new home stadium for the Texas Rangers.'},
    'finish_reason': 'stop',
    'index': 0
   }
  ]
}

在 Python 中,可以使用 response['choices'][0]['message']['content'] 提取助手的回复。

每个响应都将包含一个 finish_reason。 finish_reason 的可能值为:

  • stop: API 返回完整的模型输出
  • length: 由于 max_tokens 参数或令牌限制,模型输出不完整
  • content_filter: 由于我们的内容过滤器中的标记而省略的内容
  • null: API 响应仍在进行中或未完成

管理 tokens

语言模型以称为标记的块形式读取文本。在英语中,token 可以短到一个字符,也可以长到一个单词(例如 a 或 apple),在某些语言中,token 甚至可以短于一个字符,甚至长于一个单词。

例如,字符串“ChatGPT 很棒!”被编码为六个标记:["Chat", "G", "PT", "is", "great", "!"]。

API 调用中的令牌总数会影响:

  • 您为每个令牌支付的 API 调用费用是多少

  • 您的 API 调用需要多长时间,因为写入更多令牌需要更多时间

  • 您的 API 调用是否有效,因为令牌总数必须低于模型的最大限制(gpt-3.5-turbo-0301 为 4096 个令牌)

输入和输出令牌都计入这些数量。例如,如果您的 API 调用在消息输入中使用了 10 个令牌,而您在消息输出中收到了 20 个令牌,则您需要支付 30 个令牌的费用。

要查看 API 调用使用了多少令牌,请检查 API 响应中的使用字段(例如,response['usage']['total_tokens'])。

gpt-3.5-turbo 和 gpt-4 等聊天模型使用令牌的方式与其他模型相同,但由于它们基于消息的格式,因此更难计算对话将使用多少令牌。

计算聊天 API 调用的令牌

下面是一个示例函数,用于计算传递给 gpt-3.5-turbo-0301 的消息的令牌。

消息转换为令牌的确切方式可能因模型而异。因此,当发布未来的模型版本时,此函数返回的答案可能只是近似值。 

def num_tokens_from_messages(messages, model="gpt-3.5-turbo-0301"):
  """Returns the number of tokens used by a list of messages."""
  try:
      encoding = tiktoken.encoding_for_model(model)
  except KeyError:
      encoding = tiktoken.get_encoding("cl100k_base")
  if model == "gpt-3.5-turbo-0301":  # note: future models may deviate from this
      num_tokens = 0
      for message in messages:
          num_tokens += 4  # every message follows <im_start>{role/name}\n{content}<im_end>\n
          for key, value in message.items():
              num_tokens += len(encoding.encode(value))
              if key == "name":  # if there's a name, the role is omitted
                  num_tokens += -1  # role is always required and always 1 token
      num_tokens += 2  # every reply is primed with <im_start>assistant
      return num_tokens
  else:
      raise NotImplementedError(f"""num_tokens_from_messages() is not presently implemented for model {model}.
  See https://github.com/openai/openai-python/blob/main/chatml.md for information on how messages are converted to tokens.""")

接下来,创建一条消息并将其传递给上面定义的函数以查看令牌计数,这应该与 API 使用参数返回的值相匹配:

messages = [
  {"role": "system", "content": "You are a helpful, pattern-following assistant that translates corporate jargon into plain English."},
  {"role": "system", "name":"example_user", "content": "New synergies will help drive top-line growth."},
  {"role": "system", "name": "example_assistant", "content": "Things working well together will increase revenue."},
  {"role": "system", "name":"example_user", "content": "Let's circle back when we have more bandwidth to touch base on opportunities for increased leverage."},
  {"role": "system", "name": "example_assistant", "content": "Let's talk later when we're less busy about how to do better."},
  {"role": "user", "content": "This late pivot means we don't have time to boil the ocean for the client deliverable."},
]

model = "gpt-3.5-turbo-0301"

print(f"{num_tokens_from_messages(messages, model)} prompt tokens counted.")
# Should show ~126 total_tokens

要确认我们上面的函数生成的数字与 API 返回的数字相同,请创建一个新的 Chat Completion:

# example token count from the OpenAI API
import openai


response = openai.ChatCompletion.create(
    model=model,
    messages=messages,
    temperature=0,
)

print(f'{response["usage"]["prompt_tokens"]} prompt tokens used.')

要在不调用 API 的情况下查看文本字符串中有多少个标记,请使用 OpenAI 的 tiktoken Python 库。

传递给 API 的每条消息都会消耗内容、角色和其他字段中的令牌数量,外加一些额外的用于幕后格式化。这在未来可能会略有改变。

如果对话中的标记太多而无法满足模型的最大限制(例如,gpt-3.5-turbo 的标记超过 4096 个),您将不得不截断、省略或以其他方式缩小文本直到适合。请注意,如果从消息输入中删除一条消息,模型将失去所有关于它的知识。

另请注意,很长的对话更有可能收到不完整的回复。例如,长度为 4090 个令牌的 gpt-3.5-turbo 对话将在仅 6 个令牌后被切断回复。

指导聊天模型

指导模型的最佳实践可能因模型版本而异。以下建议适用于 gpt-3.5-turbo-0301,可能不适用于未来的模型。

许多对话以系统消息开始,以温和地指示助手。例如,这是用于 ChatGPT 的系统消息之一:

You are ChatGPT, a large language model trained by OpenAI. Answer as concisely as possible. Knowledge cutoff: {knowledge_cutoff} Current date: {current_date}

总的来说,gpt-3.5-turbo-0301 对系统消息的关注度不高,因此重要的说明往往放在用户消息中比较好。

如果模型没有生成您想要的输出,请随意迭代并尝试潜在的改进。您可以尝试以下方法:

  • 让你的指示更明确

  • 指定您想要答案的格式

  • 在确定答案之前让模型逐步思考或讨论利弊

如需更及时的工程创意,请阅读有关提高可靠性的技术的 OpenAI Cookbook 指南。

除了系统消息之外,temperature 和最大令牌是开发人员必须影响聊天模型输出的众多选项中的两个。对于 temperature,较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。在 max tokens 的情况下,如果要将响应限制为特定长度,可以将 max tokens 设置为任意数字。这可能会导致问题,例如,如果您将最大标记值设置为 5,因为输出将被切断并且结果对用户没有意义。

Chat vs Completions

由于 gpt-3.5-turbo 的性能与 text-davinci-003 相似,但每个令牌的价格低 10%,因此我们建议在大多数用例中使用 gpt-3.5-turbo。

对于许多开发人员来说,转换就像重写和重新测试提示一样简单。

例如,如果您使用以下完成提示将英语翻译成法语:

Translate the following English text to French: "{text}"

等效的聊天对话可能如下所示:

[
  {"role": "system", "content": "You are a helpful assistant that translates English to French."},
  {"role": "user", "content": 'Translate the following English text to French: "{text}"'}
]

或者甚至只是用户消息:

[
  {"role": "user", "content": 'Translate the following English text to French: "{text}"'}
]

FAQ

gpt-3.5-turbo 是否可以进行微调?

不可以。自 2023 年 3 月 1 日起,您只能微调基础 GPT-3 模型。

您是否存储传递到 API 中的数据?

自 2023 年 3 月 1 日起,我们会将您的 API 数据保留 30 天,但不再使用您通过 API 发送的数据来改进我们的模型。

添加审核层

如果您想向聊天 API 的输出添加审核层,您可以按照我们的审核指南来防止显示违反 OpenAI 使用政策的内容。


以上内容是否对您有帮助:
在线笔记
App下载
App下载

扫描二维码

下载编程狮App

公众号
微信公众号

编程狮公众号