近期,微软听到了用户的反馈:

人们希望微调他们的模型,但定价可能会让实验成本过高。

继上个月更新为基于令牌的培训计费后,微软正在降低您最喜欢的许多模型的托管费用!

从 7 月 1 日开始,微软降低了许多 Azure OpenAI 服务微调模型的托管费用,包括最受欢迎的模型 - GPT-35-Turbo 系列。

对于不太熟悉微软服务的用户,需要先部署模型,然后才能将其用于推理。

企业如何合规、稳定使用ChatGPT以及Copilot?

出于合规角度,建议国内企业可以选择微软的Azure OpenAI服务来使用接口。

通过微软官方合作伙伴获取服务,企业用户可以合规、稳定地使用ChatGPT,满足国内发票需求,同时也能解决连接不稳定/响应速度慢/并发配额低等问题。

作为微软的合作伙伴,全云在线可为企业开通绿色申请通道!包括最新版本GPT-4o、Dalle-3等,只要企业有需求,全云在线都能协助快速开通!

软 Azure OpenAI 免费试用申请
https://azureopenai.cloudallonline.com/?zxwwy157

部署后,我们会按小时收取托管模型的费用。不需要立即使用您的模型?微软每个资源最多可免费存储 100 个未部署的微调模型!

新价格已发布在Azure OpenAI 服务定价页面上,如下所示:

基础模型

先前价格

新价格(2024 年 7 月 1 日生效)

巴贝奇-002

1.70 美元 / 小时

1.70 美元 / 小时

达芬奇-002

2.00 美元 / 小时

1.70 美元/小时(15% 折扣)

GPT-35-Turbo(4K)

3.00 美元 / 小时

1.70 美元/小时(43% 折扣)

GPT-35-Turbo(16K)

3.00 美元 / 小时

1.70 美元/小时(43% 折扣)

为什么微软要收取托管费用?

当您部署微调模型时,您将享受与我们的基础模型相同的Azure OpenAI SLA,正常运行时间为 99.9%,并持续托管在 Azure 基础架构上,而不是按需加载。这意味着一旦您的模型部署完毕,就无需等待推理。而且,由于您为部署付费,我们对推理收取的费用相对较低(与等效基础模型相同)。

在比较不同的服务时,您可以考虑在固定的托管价格和更高的每令牌推理费率之间进行权衡。由于 Azure OpenAI 具有固定的托管成本和较低的推理费用,因此对于更重的推理工作负载,它可能比仅对令牌收取额外费用的服务便宜得多。例如,如果我们假设输入与输出令牌的标准比率为 8:1,并比较使用微调的 GPT-35-Turbo 模型的成本,当您的工作负载超过约 700K 令牌/小时(约 12K TPM)时,Azure OpenAI 将成为更便宜的选择。

微软希望这将使您更容易使用这些模型并探索其功能。