Openai GPT-5 模型来了!通过 OpenAI API 立即体验

GPT-5 是 OpenAI 在 2025 年下半年推出的旗舰模型。它专为更深层的推理、更好的编程能力和代理工作流程而构建,并添加了两个在实践中重要的控制参数:详细程度和推理深度。它运行时支持 400,000 个 token 的总上下文(不是 GPT-4.1 的 100 万个),每个响应最多可输出 128,000 个 token。

如果您对大型语言模型还不熟悉,请浏览我关于 GPT 风格 LLM 工作原理的通俗解释。阅读后您会更好地使用提示。

准备好了吗?让我们发送您的第一个 GPT-5 请求。

创建账户以获取您的 GPT-5 API 密钥

  • 创建账户或登录。 创建账户或登录

  • 确认您的邮箱地址。

  • 登录。

  • 打开账单概览页面,添加信用额度或付款方式,这样您的密钥就能立即工作。(免费信用额度计划在 2024 年中期结束。)

  • 生成您的第一个 GPT-5 API 密钥。密钥只显示一次;请立即将其粘贴到密码管理器中。 OpenAI 上的 API 密钥生成

拿到密钥了吗?太好了。是时候调用 API 了。

如何向 GPT-5 发出您的第一个请求

OpenAI 的 Responses API 是现代端点。Chat Completions 仍然可用,但除非有特殊原因,否则请从 Responses 开始。

macOS 和 Linux(Responses API):

bash
curl -s https://api.openai.com/v1/responses \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5",
    "input": [
      { "role": "user", "content": [{ "type": "input_text", "text": "Hello!" }] }
    ],
    "verbosity": "medium",
    "reasoning_effort": "minimal",
    "max_output_tokens": 200
  }'

Windows(单行命令,Chat Completions 仍然可用):

cmd
curl -X POST -H "Content-Type: application/json" -H "Authorization: Bearer %OPENAI_API_KEY%" https://api.openai.com/v1/chat/completions -d "{ \"model\": \"gpt-5\", \"messages\": [{\"role\":\"user\",\"content\":\"Hello!\"}], \"verbosity\":\"medium\", \"reasoning_effort\":\"minimal\", \"max_output_tokens\":200 }"

专业提示: 使用 gpt-5 来跟踪最新的 GPT-5 快照。如果您需要严格的可重现性,请在您的技术栈中固定一个快照。

Token 预算: 单次调用最多支持 400,000 个 token(比 GPT-4.1 的 100 万个要少)。最大输出为 128,000 个 token(比之前的 32K 增加了!)。您的速率限制层级必须足够高才能提供那么多 TPM;在长提示之前检查您组织的配额。

使用结构化输出的可靠 JSON(Responses API)

在 Responses API 中,JSON 位于 text.format 下。如果您在这里发送 response_format,您会看到错误。请使用这种格式:

bash
curl -s https://api.openai.com/v1/responses \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5",
    "input": [
      { "role": "system", "content": [{ "type": "input_text", "text": "Return compact JSON only." }] },
      { "role": "user",   "content": [{ "type": "input_text", "text": "Solve 8x + 31 = 2." }] }
    ],
    "text": {
      "format": {
        "type": "json_schema",
        "name": "equation_solution",
        "schema": {
          "type": "object",
          "properties": {
            "steps": { "type": "array", "items": { "type": "string" } },
            "final_answer": { "type": "string" }
          },
          "required": ["steps", "final_answer"],
          "additionalProperties": false
        },
        "strict": true
      }
    }
  }'

这是 Responses API 强制执行模式的正确方式。对于 Chat Completions,您仍然使用 response_format

视觉和多模态(快速入门)

GPT-5 在一个请求中接受文本和图像。使用 Responses API 时,将图像部分设置为 { "type": "input_image", "image_url": "<url or data URL>" },然后将文本放在图像后面以获得更好的结果。

支持的图像格式: PNG、JPEG/JPG、WEBP、非动画 GIF。不支持 HEIC。大小限制: 每个请求的图像字节总负载最多 50 MB。

图像 URL 示例:

bash
curl -s https://api.openai.com/v1/responses \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5",
    "input": [
      {
        "role": "user",
        "content": [
          { "type": "input_image", "image_url": "https://cdn.example.com/slide.jpg" },
          { "type": "input_text",  "text": "Describe this slide in 5 bullets." }
        ]
      }
    ],
    "max_output_tokens": 250
  }'

Base64 选项:

json
{ "type": "input_image", "image_url": "data:image/jpeg;base64,...." }

专业提示:

  • 除非明确比较,否则每个内容部分使用一张图像;如果有多张图像,请为每张图像添加说明。
  • 在长对话中优先使用 URL,避免重复发送 Base64。
  • 始终设置 max_output_tokens 上限,这样多模态回答就不会失控。

详细程度(新功能)

作用: 在不重写提示的情况下约束回答的紧凑程度或详细程度。值: "low"、"medium"(默认)、"high"。请有意识地设置它。

何时使用 low: 简洁的助手、工具优先的用户体验、状态回复。何时使用 high: 审计、代码审查、教学解释。

json
"verbosity": "low"

推理深度(新功能)

作用: 控制模型在响应之前进行多少内部推理。值: "minimal"、"low"、"medium"(默认)、"high"。"minimal" 是新功能,对于简单任务速度很快。

  • 使用 "minimal" 进行检索、格式化、简单转换、低延迟用户体验。
  • 使用 "high" 进行复杂规划、多步重构、模糊权衡。
json
"reasoning_effort": "minimal"

GPT-5 定价

模型输入(每百万)输出(每百万)
gpt-5(400K 上下文)$1.25$10.00
gpt-5-mini(400K 上下文)$0.25$2.00
gpt-5-nano(400K 上下文)$0.05$0.40
gpt-4.1(1M 上下文)$2.00$8.00
gpt-4.1-mini(1M 上下文)$0.40$1.60
gpt-4.1-nano(1M 上下文)$0.10$0.40

提示缓存输入更便宜;请查看官方定价和您的模型页面了解缓存输入费率。

输出限制: GPT-5 每次调用最多可输出 128K token;GPT-4.1 的最大输出约为 32K,上下文约为 1.0-1.05M。如果您需要绝对最长的上下文,4.1 仍然有优势;否则默认使用 GPT-5。

GPT-5(完整版)、mini 还是 nano?

  • GPT-5(完整版): 用于深度推理、复杂编程、长上下文分析的旗舰质量。
  • GPT-5 mini: 具有清晰提示的成本敏感应用。
  • GPT-5 nano: 超低延迟和大容量工作负载。

如果您想要非推理聊天版本,还有 gpt-5-chat-latest

JaguarJack
后端开发工程师,前端入门选手,略知相关服务器知识,偏爱❤️ Laravel & Vue
本作品采用《CC 协议》,转载必须注明作者和本文链接