打开网易新闻 查看精彩图片

(爱云资讯消息)在OpenAI直播活动发布的第九天,OpenAI宣布将通过其API向选定的开发者发布其完整的o1推理模型。在此之前,开发者只能访问功能较弱的o1预览版模型。

根据OpenAI的说法,完整的o1模型将开始向OpenAI的第五级(Tier 5)开发者类别中的用户推出。这些用户是指那些账户已超过一个月,并且至少花费了1000美元与公司合作的用户。由于o1模型需要额外的计算资源,所以这项新服务对于用户而言特别昂贵。每分析大约75万字的成本为15美元,每生成大约75万字的成本为60美元。这比使用GPT-4o执行相同任务的成本高出三到四倍。

在这样的价格下,OpenAI 确保提升了完整模型的能力,超越了预览版本。新的 o1 模型比前代模型更具可定制性,新增的“reasoning_effort”参数决定了AI思考给定问题的时间长度,并且提供了函数调用、开发者消息和图像分析等功能,这些都是 o1 预览版所不具备的。

OpenAI还宣布,它正将其 GPT-4o 和 4o-mini 模型整合到实时API 中,该API专为低延迟、语音AI应用程序(如高级语音模式)而设计。此外,该API现在还支持 WebRTC,这是行业内的开放标准,用于在网页浏览器中开发语音AI应用。

OpenAI在其公告中表示:“我们的WebRTC集成旨在实现在现实世界条件下实现流畅且响应迅速的交互,即使在网络质量不稳定的情况下也能保持良好的性能。它可以处理音频编码、流媒体传输、噪音抑制和拥塞控制等功能。”

截至目前,在这场为其12天直播活动中,OpenAI已经揭开了完整版o1模型的面纱,发布了其Sora视频生成模型,推出了新的Projects功能,并为其Canvas、Search和高级语音模式功能提供了多项更新。