驱动之家 07-30
唯一本地跑1280亿参数大模型!AMD锐龙AI Max+ 395重磅升级
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 7 月 30 日消息,AMD Zen5 架构的锐龙 AI Max+ 395,是第一个可以在本地运行 700 亿参数 AI 大模型的平台,当然需要搭配 128GB 统一内存,而现在,AMD 奉上重磅升级,1280 亿参数大模型都可以在本地运行了!

当然,能做到这一点的还是只有锐龙 AI Max+ 395,还是必须搭配 128GB 统一内存,并分配 96GB 作为显存,而且必须在 Vulkan llama.cpp 环境下。

驱动方面需要搭配还在测试阶段的 25.10 RC 24 版本,下个月初将会变成正式版 25.8.1。

这使得锐龙 AI Max+ 395 成为第一个能在本地运行 1090 亿参数的 Meta Llama 4 Sout 大模型的平台,体积多达 66GB,活跃参数最多 170 亿,并支持 Vision、MCP。

这得益于该模型使用了混合专家 ( MoE ) 模式,每次只激活模型的一部分,从而保持性能可用,锐龙 AI Max+ 395 实测可以做到每秒 15 Tokens。

同时,锐龙 AI Max+ 395 还可以跑 68GB 体积、1230 亿参数的 Mistral Large,至于 18GB、300 亿参数的 Qwen3 A3B、17GB、270 亿参数的 Google Gemma,自然更是不在话下。

当然,锐龙 AI Max+ 395 还支持各种各样的模型尺寸、量化格式,包括 GGUF。

同样重要的是,锐龙 AI Max+ 395 升级支持了更大的上下文尺寸,从传统的 4096 Tokens 左右,一举来到了惊人的 256000 Tokens,从而能够分析、汇总更大规模的文档等数据资料。

不过这里需要注意,得开启 Flash Attention、Q8 KV Cache。

对于一般的非大规模模型,32000 Tokens 的上下文就足够用了,锐龙 AI Max+ 395 则提供了新的可能,而以往如此超大规模的上下文,往往需要几万十几万的设备才能实现。

锐龙 AI Max+ 395、128GB 配置的迷你 AI 工作站,价格已经低至 1.3 万元左右,可以说性价比是相当高了。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 锐龙 amd vision google
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论