官方网站:https://openai.com/api/pricing/#faq-azure-availability
下面是我用Google翻译复制过来的。
解决 | 价格 |
---|---|
1024×1024 | 0.020 美元/张 |
512×512 | 0.018 美元/张 |
256×256 | 0.016 美元/张 |
语言模型
基本型号
有
达芬奇
多种型号,每种型号都有不同的功能和价位。Ada 是最快的模型,而Davinci是最强大的。
价格为每 1,000 个代币。您可以将标记视为单词片段,其中 1,000 个标记大约为 750 个单词。本款为35个代币。
旗帜免费开始
巴鲁普现收现付
查看选择您的型号
模型 | 训练 | 用法 |
---|---|---|
有 | $0.0004 / 1K 代币 | $0.0016 / 1K 代币 |
巴贝奇 | $0.0006 / 1K 代币 | $0.0024 / 1K 代币 |
居里 | $0.0030 / 1K 代币 | $0.0120 / 1K 代币 |
达芬奇 | $0.0300 / 1K 代币 | $0.1200 / 1K 代币 |
嵌入模型
使用我们的嵌入产品构建高级搜索、集群、主题建模和分类功能。
使用配额
由于这项技术是新技术,我们还希望确保以负责任的方式进行推广。当您注册时,您将获得一个初始支出限额或配额,随着您使用应用程序建立跟踪记录,我们将随着时间的推移增加该限额。如果您需要更多令牌,您可以随时请求增加配额。
经常问的问题
您可以将标记视为用于自然语言处理的单词片段。对于英文文本,1 个标记大约为 4 个字符或 0.75 个单词。作为参考,莎士比亚全集约有 900,000 字或 120 万个令牌。
要了解有关令牌如何工作的更多信息并估计您的使用情况……
- 试用我们的交互式Tokenizer 工具。
- 登录到您的帐户并在 Playground 中输入文本。页脚中的计数器将显示您的文本中有多少标记。
虽然 Davinci 通常是最有能力的模型,但其他模型可以非常出色地执行某些任务,在某些情况下,速度要快得多。它们还具有成本优势。例如,居里可以执行许多与达芬奇相同的任务,但速度更快,成本仅为达芬奇的 1/10。我们鼓励开发人员进行试验以找到对您的应用程序最有效的模型。请访问我们的文档以获取更详细的模型比较。
登录到您的帐户以查看您的使用情况跟踪仪表板。此页面将显示您在当前和过去的结算周期中使用了多少代币。
您可以在计费设置中配置使用硬性限制,之后我们将停止处理您的请求。您还可以配置一个软限制,以便在您超过某个使用阈值后收到电子邮件警报。执行限制可能会有所延迟,您应对由此产生的任何超额负责。我们建议定期检查您的使用情况跟踪仪表板以监控您的支出。
是的,我们将 Playground 的使用视为与常规 API 的使用相同。
完成请求根据提示中发送的令牌数加上 API 返回的完成中的令牌数进行计费。
和参数best_of
也n
可能影响成本。因为这些参数为每个提示生成多个完成项,所以它们充当返回标记数的乘数。
您的请求最多可使用num_tokens(prompt) + max_tokens * max(n, best_of)
令牌,这些令牌将按本页顶部概述的每个引擎费率计费。
在最简单的情况下,如果您的提示包含 10 个令牌,并且您从 davinci 引擎请求完成单个 90 个令牌,则您的请求将使用 100 个令牌,费用 为 0.002 美元。
您可以通过减少提示长度或最大响应长度、限制best_of
/的使用n
、添加适当的停止序列或使用每个令牌成本较低的引擎来限制成本。
分类请求根据您提供的输入中的令牌数量计费。在内部,此端点调用搜索和完成端点,因此其成本是这些端点成本的函数。
每个令牌的实际成本取决于您选择执行搜索和完成的模型,这分别由search_model
和model
参数控制。
您可以提供file
包含要搜索的示例的 ,或者您可以在请求中明确指定examples
。当您要搜索的示例数量大于 时,提供文件可使搜索更快且更具成本效益max_examples
。在这种情况下,成本主要取决于重新排序的示例数量(由 控制max_examples
)和这些示例的总长度。如果您examples
改为传递请求,则成本基于所有这些示例的总长度。
query
传入模型的长度以及生成的最终分类标签也会影响成本。
您可以使用return_prompt
调试标志来了解将发送到完成端点以生成分类标签的最终组合提示的长度。
搜索请求根据您提供的文档中的令牌总数,加上查询中的令牌以及指示模型如何执行操作所需的令牌来计费。API 还使用参考文档生成响应,将文档总数加 1。这些令牌按本页顶部概述的每个引擎费率计费。
您可以提供file
包含要搜索的文档的 ,或者您可以在请求中明确指定documents
。当您要搜索的文档数量超过max_rerank
. 在这种情况下,成本主要取决于重新排序(由 控制max_rerank
)的文档数量和这些文档的总长度。如果您documents
改为传递请求,则费用基于所有这些文件的总长度。
您将在下面找到计算总代币消耗的公式。14 表示 API 使用每个文档完成语义搜索任务的附加标记,添加的 1 是参考文档:
数 +(文档数 + 1)* 14
+(文档数 + 1)* 查询中的标记数
= 总代币
例如,如果您有 5 个文档(加上一个由 API 添加的文档),令牌长度为12, 34, 22, 33, 78
(总共 179 个)并且您的查询是 8 个令牌,则消耗的令牌总数为:179 + (6 * 14) + (6 * 8) = 311
您可以使用Search Token Estimator或查看Python Estimator中的代码来进一步了解搜索令牌的用法。
答案请求根据您提供的输入中的令牌数量和模型生成的答案进行计费。在内部,此端点调用搜索和完成API,因此其成本是这些端点成本的函数。
每个令牌的实际成本取决于您选择执行搜索和完成的模型,这分别由search_model
和model
参数控制。
您可以提供file
包含要搜索的文档的 ,或者您可以在请求中明确指定documents
。当您要搜索的文档数量超过max_rerank
. 在这种情况下,成本主要取决于重新排序(由 控制max_rerank
)的文档数量和这些文档的总长度。如果您documents
改为传递请求,则费用基于所有这些文件的总长度。
examples
、examples_context
和生成答案的长度question
(由max_tokens
/控制stop
)也会影响成本。
您可以使用return_prompt
调试标志来了解将发送到完成端点以生成答案的最终组合提示的长度。
是的。Azure 客户可以通过 Azure 提供的合规性、区域支持和企业级安全访问 Azure 上的 OpenAI API。了解更多信息或联系sales@openai.com。