文 | 周鑫雨
编辑 | 邓咏仪
“GPT-3.5(ChatGPT) API将在某个时刻退役——只是不确定在何时。”在The Verge的采访中,OpenAI API平台负责人Olivier Godement如此总结。
而如今,ChatGPT的缔造者——OpenAI,率先“终结”了好大儿ChatGPT。
太平洋时间2024年7月18日,OpenAI推出了新款模型GPT-4o mini。这款新模型,是被业界称作“做接近《Her》”的多模态模型GPT-4o的“子弹版”:尺寸更小、价格更低,但性能强劲。OpenAI在官宣中将其称为:
OpenAI最具性价比的轻量级模型。
OpenAI X。
OpenAI创始人兼CEO Sam Altman激动得刚开场就大开香槟:
我们认为,人们会非常、非常喜欢使用新模型。
Sam Altman X。
目前,ChatGPT的非企业用户(包括未订阅者、ChatGPT Plus和团队版本订阅者)即日起就能尝鲜到这款新模型,而GPT-4o mini在下周也将对ChatGPT企业用户开放。
OpenAI预告,在未来几天内,支持GPT-4o mini微调的API版本也将推出。
比GPT-3.5便宜60%,比GPT-4更会聊天
在信奉“大”的Scaling Law(规模定律)成为模型训练第一性原理的当下,贵,一直是大模型落地的痛点:API贵,使用过程中产生的推理成本更贵。
能让Altman连吹“彩虹屁”,GPT-4o mini最关键的卖点,就是将奢侈品做到了地摊货的价格:
输入:15美分/百万Tokens;输出:60美分/百万Tokens。
相对地,打响OpenAI内部模型价格战的GPT-3.5 Turbo,价格为:
输入:50美分/百万Tokens;输出:150美分/百万Tokens。
这意味着,GPT-4o mini,比上一代的GPT-3.5 Turbo便宜了60%多。
在性能的硬指标上,GPT-4o mini在文本理解和多模态推理维度的学术基准测试中,已经超越了GPT-3.5 Turbo和主流的轻量模型,且支持GPT-4o同等多的语种。
GPT-4o mini的性能测评结果。图源:OoenAI
与此同时,GPT-4o mini(上下文窗口为128K)不仅在长文本处理性能上优于GPT-3.5 Turbo(上下文窗口为16K),也有出色的函数调用能力,这意味着开发者可以基于这个底座,构建性能更优异的AI Agent应用。
据OpenAI介绍,在与金融科技公司Ramp的合作测试过程中,基于GPT-4o mini开发的收据费用数据提取应用,无需文本数据,只根据上传的收据图片,就能为用户进行收据分类。
视听,一直被认为是比文本和图像更有可能颠覆现有人机交互方式的两种模态。
脱胎于可以实时处理音频、视频和文本的GPT-4o,多模态理解能力也成了GPT-4o mini的杀手锏。在大模型测评机构 LMSYS的聊天机器人竞技场排行榜中,GPT-4o mini的排名超过了GPT-4。
目前,GPT-4o mini提供的API服务,支持文本和视觉两种模态的处理,在未来,其支持的模态还将扩展到图像和音频。
通往AGI的奥义是,AI要更便宜
自2023年下半年起,“落地”就成了AI圈内最常提及的话题。
一个明显的趋势是,为了加快AI的落地,模型尺寸在变小,更轻量、更垂的模型不断推出,模型变得越来也便宜——
OpenAI于2024年1月推出GPT-3.5 Turbo,就将Tokens输入价格降低了50%,输出价格降低了25%;后续的GPT-4o,也号称速度提高2倍,但价格减半。
“我们认为,通过让智能变得更加实惠,GPT-4o mini将显著扩大使用AI构建的应用程序的范围。”OpenAI指出,“自性能较弱的模型 text-davinci-003 在2022年发布以来,GPT-4o mini每Token的处理成本已经下降了99%。 ”
让广阔的C端用户“人人都用得起AI”,是OpenAI从2023年营收中学到的一课。
ChatGPT Plus 每月20美元的订阅费,对大多数人而言还是不够便宜。据调研机构FutureSearch,ChatGPT Plus截至2024年6月的订阅收入(约19亿美元),占到了2024年预计年化营收(约34亿美元)的55%;而企业用户和API服务的营收,分别只占到了21%和15%。
图源:FutureSearch
终极目标要做AGI(通用人工智能)的OpenAI,终于开始“卷”小模型,也是为最近的行业定下重要基调。
无独有偶,“欧洲版OpenAI”Mistral AI、最近有名的“AI鲶鱼”Deepseek,也在同一天发布了模型的新进展,前者已经成为小模型的强劲标杆,而后者则是最近打响打模型价格战的神秘选手。
从2023年开始,在通用模型层,大家要不然就是推出性能更好、价格更低的开源模型,或是把模型蒸馏、压缩,尺寸做得更小——就是意在扩大开发者群体,让更多人能先用起来。从2024年5月开始的国内大模型价格战,大家纷纷把价格降到最低,道理也是同样。
在开源和闭源两条道路上,领军者们都达成了一致。
在商业化落地上,2024“端侧”大战的战火已经燃起。AI手机就已经打得激烈——无论是年初的三星S24系列,还是9月即将要出来的iPhone 16,国内的华米OV,都把AI作为今年最重要的卖点。
除此之外,还有PC、家电,各行各业的硬件产品,都等着用大模型来把自己“再做一遍”。做出体量更小、性能更强,能跑在各个终端的大模型,也是大势所趋。
欢迎交流!
热门跟贴