直面派 12小时前
笑不活了,“日本最高性能AI模型”,是DeepSeek V3改了个名?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

好家伙 …… 我真的是直接好家伙!

3 月 17 日,楽天(乐天)集团正式发布了 Rakuten AI 3.0 模型,号称是 " 日本国内最大规模的高性能 AI 模型 "。官方宣传的参数量为约 7000 亿,并且日语特化,Apache 2.0 开源许可,还拿了日本经产省和 NEDO 的 GENIAC 项目补助。

然而就是这样一个日本国民级的 AI 模型,不到 12 小时,爆出惊天大雷。

当天下午,有人打开了 Rakuten AI 3.0 在 Hugging Face 上的 config.json。

第一行配置,architectures(架构)字段,赫然写着一个在中国家喻户晓的模型:DeepseekV3ForCausalLM.

而 model_type 字段为 deepseek_v3。

也就是说,这个日本 " 国内最大规模的高性能 AI 模型 ",正是 DeepSeek V3。

01

事情的发现过程没有任何技术门槛。

Rakuten AI 3.0 发布后,模型权重按惯例上传到了 Hugging Face 的楽天官方仓库。

任何人点进去,切到 "Files and versions" 标签页,打开 config.json 就能看到。

这个 config.json 是每个大模型都有的配置文件,记录着模型的架构信息。

architectures 字段写的 "DeepseekV3ForCausalLM",意思是这个模型使用的是 DeepSeek V3 的因果语言模型架构。

不是 " 参考 ",不是 " 借鉴 ",是直接声明了模型类别。

往下看,hidden_size 是 7168,intermediate_size 是 18432,num_hidden_layers 是 61,n_routed_experts 是 256,vocab_size 是 129280。

这些数字和 DeepSeek V3 的原版配置一模一样。

说实话,真的是演都不演了。而且现在 DeepSeek 已经更新到 V3.2 了,V3 幻觉太高,其实不怎么好用的。

难怪楽天的 Rakuten AI 3.0 号称 " 参数量约 7000 亿 ",因为 DeepSeek V3 的参数量就是 6810 亿。

Hugging Face 的模型页面上,标签栏里甚至直接挂着 "deepseek_v3" 的标签。这不是网友后加的,是模型上传时系统根据 config 自动生成的。

楽天自己的说法是基于开源社区最优秀的模型开发。

这句话写在官方新闻稿里,还写在 Hugging Face 的模型卡片里,也写在楽天集团的 PR Times 新闻通稿里。从技术角度讲,这句话没有说谎。

改了个名字确实也算是开发。

DeepSeek V3 是开源模型,许可证也允许这么做。楽天在此基础上用自己的日语双语数据做了微调和优化,这个流程在业界很常见。

但问题在于,楽天在所有对外宣传中,从未提及 "DeepSeek" 这三个字。

新闻稿里没有,模型卡片的描述里没有,接受媒体采访时也没有。

所以当有人把 config.json 的截图贴到 X(原 Twitter)上时,评论区的反应可想而知。

02

最先传播开来的是一张截图:Hugging Face 上 Rakuten AI 3.0 的 config.json 页面,architectures 字段里的 "DeepseekV3ForCausalLM" 被蓝框高亮圈出。

截图下面,有人只写了两个词加一个问号:"deepseek V3?"

这条帖子被迅速转发到 Impress Watch 的报道推文下面。

Impress Watch 是最早报道 Rakuten AI 3.0 的日本科技媒体之一,它的推文本来是一条普通的新闻转发,评论区却变成了另一番景象。

一个叫 Ryu 的用户写道:" 日本终于到了用中国 AI 冒充日本产 AI 的时代了吗?"

底下的日语评论普遍都是骂街的,中文评论都是看乐子的,在这里我也就不放出来了,大家自行想象一下那个场景就好了。

一位叫做 "ホトトギス御三家 " 的认证用户对 Rakuten AI 3.0 进行了一系列测试,特地去问这个模型有关中国的一系列问题,然后把回答截图贴了出来,附了一句:中国相关的问题,看起来回答得挺正常的 …… 是吧?

言外之意就是,明明是日本本体的模型,还进行了日语特化,结果其输出的答案却符合中国的价值观,而不是日本的价值观。

诚然,严格来说,楽天没有违反任何规则。DeepSeek V3 的开源许可允许商业使用和二次开发,在开源模型基础上做微调也是行业通行做法。

可是这事并没有那么体面。

2025 年 DeepSeek 爆火的时候,日本媒体给它起了个名字,叫 "AI 界的黑船事件 "。

黑船是 1853 年美国海军准将佩里率舰队强行叩开日本国门的历史事件,在日语里专门用来形容外来力量对日本造成的巨大冲击。

把一个中国的 AI 产品比作黑船,这个措辞本身就说明了很多。

日本政府的反应很快。2025 年 2 月初,日本数字大臣平将明公开表态,称在安全疑虑消除之前,日本公务员应避免使用 DeepSeek,或者在使用时格外谨慎。

他特别提到了个人信息保护的问题。随后,日本政府向各省厅发出警告,要求不要在政府设备上使用 DeepSeek。

企业层面的动作更直接。

丰田汽车明确禁止员工使用 DeepSeek,官方理由是 " 出于信息安全的考虑 "。三菱重工同样实施禁令,即便员工提交内部申请也不会被批准。

软银则限制了公司内部对 DeepSeek 的访问,并禁止员工在工作设备上下载和使用。

可是现在 …… 你怎么让我忍得住不笑啊!

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

日本 开源 乐天 日语
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论