“很多打工人担心自己会被ChatGPT取代,其实完全没必要,因为你的工资还没它运维费用高”。今日被这样一条“扎心”的朋友圈截图刷屏了。虽然只是一则玩笑,但玩笑背后,打工人的渺小与卑微在这一刻被体现得淋漓尽致……

打开网易新闻 查看精彩图片

提起ChatGPT,网友们最近大多对其强大的能力有所耳闻,作诗词、写古文、敲代码、做报表,上至天文地理,下至鸡毛蒜皮,似乎这个AI全都对答如流。然而,你知道ChatGPT有多烧钱吗?

据国盛证券报告称,其背后的模型GPT-3训练一次的成本约为140万美元。

有相关领域的专家表示,模型的参数越大、越复杂,最终的预测也就越准确。现在全球主流人工智能研发的大模型都是千亿、万亿级的参数。“这些AI生成工具可以学习各行各业的各种数据。除了给出比小模型更准确的预测结果,还表现出惊人的泛化能力和迁移能力,输出内容质量更高,更智能。”

超大模型、超强算力对应的背后是高资本投入,据国盛证券报告《ChatGPT需要多少算力》估算,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM(大型语言模型),训练成本介于200万美元至1200万美元之间。以ChatGPT在1月的独立访客平均数1300万计算,其对应芯片需求为3万多片英伟达A100 GPU,初始投入成本约为8亿美元,每日电费在5万美元左右。

如果将当前的ChatGPT部署到谷歌进行的每次搜索中,需要512820.51台A100 HGX服务器和总共4102568个A100 GPU,这些服务器和网络的总成本仅资本支出就超过1000亿美元。

此外,ChatGPT估算生成一条信息的成本约为1.3美分,是目前传统搜索引擎的三到四倍。

虽然ChatGPT的能力强大,但是想要普及商用,前提是成本的降低。在商言商,没有人会做赔本买卖。所以对于普通打工人,尚不必杯弓蛇影,你被人工智能取代的那一天短时间内还不会到来。