目前国内最稳定的ChatGPT访问渠道恐怕是微软的Azure OpenAI了。
这是一项付费服务,而且仅向企业提供。注意这里的企业并非指国内在工商注册后的企业,而是微软认可的“企业”,要求低了很多,通过微软合作伙伴的渠道,可人民币支付也可开发票。
参考链接:https://azureopenai.cloudallonline.com/?zxwwy256
全云微软 Azure OpenAI 试用申请
目前Azure OpenAI提供的ChatGPT模型目前已经更新到GPT-4omini。每个家族下按照特性、版本又可以继续细分。
下面单位都是:1M Tokens
模型名称
API提供商
上下文长度
输入价格 $
输入价格 ¥
输出价格 $
输出价格 ¥
GPT-4o 全球部署
微软Azure OpenAI
128K
$5.00
$15.00
GPT-4o 区域 API
微软Azure OpenAI
128K
$5.00
$15.00
GPT-4o-mini 全球部署
微软Azure OpenAI
128K
$0.15
1.09
$0.60
4.35
GPT-4o-mini 区域 API
微软Azure OpenAI
128K
$0.165
1.2
$0.66
4.79
GPT-3.5-Turbo-0125
微软Azure OpenAI
16K
$0.50
3.63
$0.15
1.09
GPT-4-Turbo
微软Azure OpenAI
128K
$10.00
725
$30.00
GPT-4-Turbo-Vision
微软Azure OpenAI
128K
$10.00
725
$30.00
GPT-4
微软Azure OpenAI
8K
$30.00
$60.00
435
GPT-4
微软Azure OpenAI
32K
$60.00
436
$120.00
875
GPT 3.5
GPT 3.5从特性上就区分就有三个分支:gpt-35-turbo、gpt-35-turbo-16k和gpt-35-turbo-instruct。后缀的16k是指模型的有效上下文长度为16k个token。instruct则是指专门为指令跟随调教过。这里的指令也常被称为提示词(prompt),特指发送给模型的第一条指令,可以用来设定模型角色、提供必要的背景信息等。
具体到每一个分支,又按照推出时间确定了版本。例如gpt-35-turbo就有0301、0613、1106和0125四个版本。目前看来一个版本的生命周期大概一年左右。如果模型到期记得及时替换。目前GPT-3.5-Turbo-0125只剩这一个模型,大模型的更新换代非常快。
GPT 4
GPT 4为GPT 3.5的改进版,提供了更好的对话质量。在推出时堪称地表最强大语言模型。与GPT 3.5系列一样,通过不同的后缀可将GPT 4模型划分为若干分支,然后每个分支按照发布日期提供若干版本。与GPT 3.5不同的时,GPT 4有一个特殊的后缀vision。这个后缀代表模型具备视觉模态特性,可以读懂图片。
可用区
如同其它公有云服务一样,Azure的GPT模型并非在每个地区都可以使用。目前看来East/West US是可用模型比较多的区域。两者组合起来可以覆盖全部GPT模型。如果你对网络时延比较敏感的话,也可以选择地理位置较近得区域。不过,与模型推演所需的耗时相比,地理位置带来的时延基本可以忽略不计。
隐私
尽管微软承诺不会使用用户调用API时的数据,但是这种承诺往往缺乏行之有效的监督途径。尤其是当服务供应地点位于使用者当地法律无权管辖的区域的时候。另外从原理角度讲,模型工作原理决定它必须接收到有效的明文信息才能给出有意义的输出,而模型与最终用户之间的通信链条上涉及到难以计数的应用与网络供应商。绝对的隐私是不存在的。最好的保护隐私的办法无疑是不要以任何形式透露它们。
总结
你可以使用Azure提供的GPT模型服务来构建一个稳定可用的人工智能应用。在开发时要根据实际情况明智的选择模型类型与可用区,并充分理解互联网隐私的相对性。
热门跟贴