2026年3月17日,日本乐天集团在经济产业省(METI)的聚光灯下,高调发布号称“日本最大、性能最强”的7000亿参数大模型Rakuten AI 3.0。新闻稿里,“本土创新”“自主架构”“国家队成果”等词反复出现,仿佛日本终于在生成式AI赛道追上了全球第一梯队。然而48小时后,开源社区的代码扒皮让这场狂欢戛然而止:模型底层架构赫然标注“DeepSeek V3”——一款来自中国的开源大模型。更刺眼的是,乐天不仅在发布时对DeepSeek绝口不提,还偷偷删除了MIT开源协议文件,直到被实锤才灰溜溜补回。这场“日本最强AI”的闹剧,撕开的不仅是一家企业的遮羞布,更是全球技术竞争中“本土化焦虑”与“开源现实”的深刻矛盾。
一、从“全村希望”到“遮遮掩掩”:一场精心设计的技术表演
乐天这场发布会,从一开始就带着强烈的“政治正确”底色。作为日本政府GENIAC项目(旨在建立本土生成式AI生态)的重点扶持对象,Rakuten AI 3.0被赋予“打破海外技术依赖”的使命。发布会上,首席AI官Ting CAI将其形容为“数据、工程和创新架构的规模性突破”,7000亿参数、混合专家(MoE)架构等关键词,让日本媒体直呼“终于有了能对标GPT-4的本土模型”。
但开源社区的眼睛从不会放过细节。在Hugging Face的项目页面上,开发者很快发现,Rakuten AI 3.0的配置文件里清晰写着“architecture: DeepSeek V3”。这意味着,所谓“创新架构”,其实是直接复用了中国DeepSeek团队2025年开源的V3版本——后者以高效的MoE设计和低算力消耗闻名,全球已有超300家企业基于其进行二次开发。更关键的是,DeepSeek采用的MIT协议明确要求:“保留原作者版权声明”。而乐天不仅在新闻稿中对DeepSeek只字未提,还在开源时删除了协议文件,转而宣称采用“更严谨”的Apache 2.0协议。
这种“既要又要”的操作,在日本网友中炸开了锅。“拿着政府补贴,就做了个日文微调?”“用中国技术不丢人,丢人的是藏着掖着!”“说好的本土创新呢?这和偷有什么区别?”愤怒背后,是日本社会对“技术自主”的强烈期待与现实的巨大落差。
二、开源不是“遮羞布”:MIT协议的底线与商业伦理
在技术圈,基于开源模型做本土化微调本是常规操作。日本另一家AI企业ABEJA去年发布的QwQ 32b模型,就直接基于中国Qwen(通义千问)架构,连代号都保留了“QwQ”,反而收获“坦诚”的评价。为何乐天的操作引发众怒?核心在于对“开源精神”的背离。
MIT协议被业内称为“最宽容的开源协议”:允许商用、修改、闭源,唯一的要求是“保留原作者声明”。这种“低门槛共享”正是推动AI技术普惠的基石——就像Linux系统支撑了全球服务器,DeepSeek、Qwen等开源模型正在让中小开发者和企业低成本进入大模型领域。乐天的问题不在于“用了DeepSeek”,而在于试图“抹去DeepSeek的存在”:通过删除协议文件、模糊“开源社区精华”的表述,将中国团队的技术成果包装成“日本自主创新”。
这种行为触碰了开源社区的核心信任。Hugging Face上,有开发者留言:“如果连MIT协议的底线都守不住,谁还敢开源?”更讽刺的是,乐天宣称采用的Apache 2.0协议,虽同样允许商用,却比MIT多了“专利授权保护”条款——这意味着,若乐天未来基于该模型申请专利,反而可能限制其他开发者使用,与“开源共享”的初衷背道而驰。
三、日本AI的“本土执念”:焦虑背后的产业困局
乐天事件不是孤例,而是日本AI产业“本土化焦虑”的集中爆发。日经新闻2025年底的调查显示,日本企业开发的前十大商用大模型中,6个基于DeepSeek或Qwen架构,3个源自Meta的Llama,仅有1个实现了全栈自主研发。这种“拿来主义”的背后,是日本在生成式AI赛道的明显滞后。
客观来看,日本在AI应用层(如制造业质检、老龄化服务)仍有优势,但在底层大模型研发上,已被中美拉开差距。2024年全球Top 50大模型中,美国占28个,中国15个,日本仅2个,且参数规模均未突破千亿。GENIAC项目的设立,正是为了扭转这一局面:政府砸下超1万亿日元(约合500亿人民币)补贴,目标是2030年前建成“日本主导的AI生态”。
但技术积累非一日之功。大模型训练需要“算法、数据、算力”三位一体,日本在算力(全球超算500强占比不足5%)、数据(隐私法规严格导致数据开放度低)、算法人才(AI研究者数量仅为中国1/5)上均不占优。这种情况下,“基于开源模型微调”本是务实选择——就像美国企业大量使用Llama,中国企业基于DeepSeek迭代,关键在于“坦诚借力”而非“虚构自主”。乐天的遮遮掩掩,本质是想用“面子工程”掩盖产业短板,反而暴露了对技术实力的不自信。
四、中国AI开源的“无心插柳”:从技术输出到规则制定
乐天事件中,被反复提及的“DeepSeek”,代表着中国AI开源生态的崛起。这家成立仅4年的企业,凭借V3版本的高效架构,已成为全球最受欢迎的开源大模型之一:截至2026年3月,DeepSeek在Hugging Face的下载量突破800万次,覆盖127个国家,日本、韩国、东南亚企业占比超30%。
中国AI企业的开源路径,走的是“技术普惠”路线。不同于美国巨头的“闭源霸权”(如GPT系列),DeepSeek、Qwen等选择“开源+商业化”双轨模式:基础模型免费开放,通过企业定制、API服务盈利。这种模式不仅降低了全球中小开发者的门槛,更潜移默化地输出了技术标准——当日本、东南亚企业习惯用DeepSeek架构做微调时,中国团队的技术理念、工程经验自然成为行业基准。
更值得关注的是,中国开源社区正在建立“软规则”。比如DeepSeek的MIT协议虽宽松,但社区通过代码审计、用户监督形成了“道德约束”——乐天删除协议的行为被迅速曝光,正是社区自净能力的体现。这种“技术输出+规则共建”的模式,或许比单纯的参数竞赛更有长远价值。
五、技术全球化的终极命题:放下“本土执念”,拥抱“生态协同”
乐天事件的荒诞之处,在于它把“技术来源”和“民族荣誉”强行捆绑。在AI这样的前沿领域,没有任何国家能闭门造车:美国的Llama用了中国团队的优化算法,中国的大模型训练依赖台积电的芯片,日本的机器人AI借鉴了欧洲的强化学习框架。技术的本质是流动的,真正的竞争力不在于“从零开始”,而在于“高效整合”与“快速迭代”。
日本网友的愤怒,本质是对“资源错配”的不满——政府补贴本应用于真正的技术突破,而非包装“套壳模型”。反观中国,虽然开源模型被广泛使用,但企业更关注“应用创新”:基于DeepSeek开发的医疗AI已能识别罕见病,教育大模型帮助偏远地区学生补习,这种“技术落地”的能力,才是竞争力的核心。
未来的AI竞争,不是“你用了谁的架构”,而是“你用架构解决了什么问题”。乐天若能坦诚借力DeepSeek,专注于日文场景的深度优化(如古籍解读、地方方言处理),未必不能成为日本AI的标杆。可惜,它选择了最投机的“面子工程”,最终只留下一个“技术遮羞布”的笑柄。
结语
当Rakuten AI 3.0的代码暴露在阳光下,我们看到的不仅是一家企业的诚信问题,更是技术全球化时代的集体焦虑。日本对“本土创新”的执念,中国开源生态的崛起,开源精神与商业利益的博弈,都在这场闹剧中交织。或许,真正的“技术自信”,不在于宣称“100%自主”,而在于敢于承认“站在巨人肩膀上”,并在此基础上做出独特的价值。毕竟,AI的终极目标是服务人类,而非成为民族主义的道具。
热门跟贴