最近日本科技圈闹得沸沸扬扬,“用中国AI假扮日本自研”的戏码终于上演了。3月18日,日本乐天集团(Rakuten)在官方场合高调发布了号称“日本最大、性能最强”的AI大模型——Rakuten AI 3.0,7000亿参数听着吓人,本想带点民族自豪感。结果还没过两天,开源社区的程序员们就火眼金睛地发现,这玩意儿架构就是中国DeepSeek-V3,只是微调了一下日文数据而已。
围观Hugging Face上的模型详情,Rakuten自己在配置文件里都写着架构出自DeepSeek-V3,但面对媒体通稿,却一句没提中国团队,只用了句模糊表述“融合开源社区精华”,真把人当外行糊弄了。更让人哭笑不得的是,乐天在开源代码时,居然偷偷把DeepSeek的MIT协议删了,后来被锤才灰溜溜补个“NOTICE”文件。要不是社区盯得紧,差点就糊弄过去。
日本网友这波直接炸锅,觉得自己被耍了。不仅用上了中国底子,还要偷偷摸摸藏着掖着,拿着政府补贴,还对外宣称“日本AI之光”。有位网友直说,“这让人无法接受”。还有人调侃,这操作比直接承认更逊色。
站在技术圈,这种拿开源大模型本土化微调十分普遍。像他们对比用的ABEJA QwQ 32b模型,也就是基于中国Qwen微调的。其实日本本土这几年顶尖AI模型,前十大里有6个都靠中国开源模型“改装”。只要公开透明声明底座,没人会较真,毕竟MIT协议也只要求保留原作者名,花钱推广自己时搭个顺风车倒还能蹭热度。奈何乐天这波实在太小家子气。
Rakuten CEO Ting Cai也挺有意思,本人其实是移民背景,谷歌、微软混过,倒是对开源玩法门儿清。这次发的模型虽然参数逼近7000亿、官方宣称测试全线领先,但对比对象只有别人的“小模型”或者“被下线的GPT 4o”,这成绩想想也知道怎么来的。政府给资源,戴着“国产AI”光环,自然自信满满。
GENIAC本来是日本经济产业省专门扶持本土大模型研发的计划,目标就是减缓对海外技术的依赖。说白了,日本抢AI这风口也急,不想一直受制于人。但这回乐天的操作,让人看明白了:芯子、方法还得靠中国大模型来撑场子,光靠本土情怀和包装,实在难撑脸面。
其实开源界讲究“拿了就得说一声”,这么简单的规矩都要偷奸耍滑,难怪日本网友集体翻车。现实就是,日本想搞“自研”,还是不得不靠中国团队写的代码。喊了那么久的美国版、欧洲版DeepSeek都没着落,日本这波也指望不上。最后想问,你怎么看待“贴牌微调”的套路?当“全村希望”被扒掉马甲后,日本AI的自信还能剩多少?
热门跟贴