快科技 7 月 30 日消息,AMD Zen5 架构的锐龙 AI Max+ 395,是第一个可以在本地运行 700 亿参数 AI 大模型的平台,当然需要搭配 128GB 统一内存,而现在,AMD 奉上重磅升级,1280 亿参数大模型都可以在本地运行了!
当然,能做到这一点的还是只有锐龙 AI Max+ 395,还是必须搭配 128GB 统一内存,并分配 96GB 作为显存,而且必须在 Vulkan llama.cpp 环境下。
驱动方面需要搭配还在测试阶段的 25.10 RC 24 版本,下个月初将会变成正式版 25.8.1。
这使得锐龙 AI Max+ 395 成为第一个能在本地运行 1090 亿参数的 Meta Llama 4 Sout 大模型的平台,体积多达 66GB,活跃参数最多 170 亿,并支持 Vision、MCP。
这得益于该模型使用了混合专家 ( MoE ) 模式,每次只激活模型的一部分,从而保持性能可用,锐龙 AI Max+ 395 实测可以做到每秒 15 Tokens。
同时,锐龙 AI Max+ 395 还可以跑 68GB 体积、1230 亿参数的 Mistral Large,至于 18GB、300 亿参数的 Qwen3 A3B、17GB、270 亿参数的 Google Gemma,自然更是不在话下。
当然,锐龙 AI Max+ 395 还支持各种各样的模型尺寸、量化格式,包括 GGUF。
同样重要的是,锐龙 AI Max+ 395 升级支持了更大的上下文尺寸,从传统的 4096 Tokens 左右,一举来到了惊人的 256000 Tokens,从而能够分析、汇总更大规模的文档等数据资料。
不过这里需要注意,得开启 Flash Attention、Q8 KV Cache。
对于一般的非大规模模型,32000 Tokens 的上下文就足够用了,锐龙 AI Max+ 395 则提供了新的可能,而以往如此超大规模的上下文,往往需要几万十几万的设备才能实现。
锐龙 AI Max+ 395、128GB 配置的迷你 AI 工作站,价格已经低至 1.3 万元左右,可以说性价比是相当高了。
登录后才可以发布评论哦
打开小程序可以发布评论哦