" 养龙虾 " 这一波再次大大推动了 AI 尤其是端侧 AI 的普及浪潮,也暴露了 AI 普及过程中亟待解决的诸多问题,对于整个行业的发展都有极大的促进意义。
比如部署和执行的难题,说明当下 AI 应用的门槛还是太高,不能只面向专业人士,于是各种一键安装和集成的方案纷纷出炉,普通用户也能玩转了。
比如安全和隐私的难题,尤其是个人和机构、企业的敏感数据,不能轻易上传到云端,只能在本地处理,于是端侧 AI PC 的能力有了更大的用武之地。
比如 Token 成本的难题,毕竟龙虾这种智能体背后都需要调用大模型,而且是完全不顾及成本、近乎无法控制的调用,所以只有本地部署才是最终的解决方案。

在这波浪潮中,拥有 CPU+GPU+NPU 三大引擎组成的完整端侧 AI 硬件与算力的 AMD 自然不会错过,第一时间发布了相关教程,推荐在锐龙 AI Max+ 平台上部署 OpenClaw,毕竟其最大 128GB 统一内存和 96GB 共享显存的配置是非常适合的。
有趣的是,为了更好地满足算力、安全、成本方面的需求,AMD 还提出了一个新的概念—— " 智能体主机 " ( Agent Computer ) 。
简单地说,AMD 推荐大家在 AI 时代配备两台电脑主机,其中一台满足传统的工作、生活需求,另一台专门用来跑 AI,无论是开发还是应用,无论是端侧还是云侧,尤其是跑各种智能体,实现专机专用。
AMD 认为,智能体主机,将是计算发展史上的又一个里程碑,可能会和一路走来的电子管计算机、大型机 / 小型机、PC 个人电脑、互联网、移动互联网、云计算一样,意义重大。

AMD 认为,无论是交互方式还是应用方式,智能体主机和传统 PC 都截然不同,因为后者是用户操作驱动的,而智能体主机是以 AI 智能体持续运行而驱动的。
具体来说,智能体主机不再需要传统的键鼠显示器等人机交互渠道,也不需要人坐在电脑前,手动打开应用,再一步步执行,而且每一步都等待人的精确指令、任务安排。
它的一切都由 AI 智能体自主驱动,可以永远在线、连续工作,运行各种其他智能体,而且可以通过各种即时通信软件,随时随地交互,获得想要的结果。
你不需要像对待 PC 那样亲自操控它,只需将任务委托给它即可。
你在微信上发送一条消息,AI 智能体就会开始行动。
你在 Slack 中提交一个任务,AI 智能体就会接手处理。
你在 Messages 里询问进度,AI 智能体就会向你反馈结果。
这就是完美的赛博牛马啊!一人公司 ( OPC ) 真的可以实现了!

当然,要成为合格的智能体主机,尤其是既要高性能还要低成本,的确是有一定门槛的,除了基本的算力之外,最关键的就是显存容量要足够大。
作为最基本的要求,为了满足全面的 SOP 标准程序要求,处理好记忆文件、技能规范、自学习上下文等,也就是养好一只基本素质齐全的 " 龙虾 ",显存不能小于 10GB。
如果是一人带 N 个 AI 员工,分管不同业务方向,就得考虑技能、上下文的膨胀和并发,显存就得是 N 个 10GB。
为了提升 AI 员工的 " 工作经验 ",私有知识库是不能少的,这就得考虑不少于 20GB 显存空间。
为了保证 AI 员工的基本素质随时可用,而不是每次都调用云端大模型 ( token 费用就花不起啊 ) ,就得在本地有一个至少 35B 参数的大模型,这就得吃掉 25GB 以上的显存。
综上,要想打造一台能带动多个智能体或者说多个 AI 员工的智能体主机,得保证可用显存至少有 64GB。
如果用独立显卡,那怎么也得三四块高端卡,成本相当吓人,而换成 AMD 锐龙 AI Max 平台的话,甚至不需要独立显卡!

锐龙 AI Max 平台的优势大家应该不陌生了:
CPU 方面是 Zen 5 高性能架构,最多 16 个纯大核,最多 80MB 缓存。
GPU 方面是 RDNA 3.5 架构的最多 40 个 CU 单元、32MB 无限缓存,显存位宽 256-bit。
NPU 方面是 XDNA 2 架构,峰值算力 60 TOPS,原生支持 Windows 11 AI+ PC 特性。
内存更是支持 UMA 同一架构,四通道 256-bit 位宽、8000MT/s 高频率完美匹配 GPU,最大容量 128GB,可划分最多 96GB 作为专用显存,构建智能体主机堪称完美。

根据测试,锐龙 AI Max+ 395 的端侧 AI 推理性能着实亮眼。
基于 Qwen 3.5 35B A3B 大模型跑单个 OpenClaw 框架的智能体,输出速度可高达 45 tokens/s,,处理 10000 个输入 token 只需要大约 19.5 秒,并支持最大 26 万上下文长度,而且可以同时跑最多 6 个智能体,每一个的上下文长度都能达到 9.5 万。
换成更大规模的 Qwen 3.5 122B A10B 模型跑,单个智能体的输出速度仍然可以接近 20 tokens/s,还能同时跑两个 9.5 万上下文长度的智能体。
另外,Qwen3-coder -next 代码优化模型的推理速度超过 40 tokens/s,完美满足代码开发、调试等场景。
GPT-OSS-120B 开源模型的推理速度更是能够超过 50 tokens/s,是所有测试中单智能体速度最快的。


经过长时间的培育,锐龙 AI Max 平台的产品已经十分丰富,众多品牌推出了全形态产品,覆盖 Mini 工作站、水冷工作站、移动工作站、笔记本、一体机甚至是掌机等,可实现全场景覆盖。
它们都基于 Windows 11 操作系统,符合更多人的使用习惯,无论开发还是应用都有着广阔的生态支撑。
即便内存价格疯涨,锐龙 AI Max 产品的价格也可以控制在 2 万元出头,相比之下无疑是最实惠的 AI 主机方案。


基于锐龙 AI Max+ 395 的迷你 AI 工作站具备诸多不可替代的优势,包括但不限于体积小巧便于本地部署和携带、数据隐私安全有保障、TCO 成本优化、x86 Windows 成熟生态、工作环境友好等等。
对比以往需要部署在机房的大型塔式工作站方案,基于锐龙 AI Max+ 395 的迷你 AI 工作站可以将体积缩小至仅仅十分之一,功耗降至十分之一乃至更低,模型参数量则能扩大两三倍。
通过 AMD 与产业伙伴的通力合作,目前采用锐龙 AI Max+ 395 平台的 AI 和智能体解决方案已经非常丰富,行业白皮书就发布了多达 11 部,覆盖众多行业领域:财税、教学、医疗、法务、数字人、招投标、数据分析、办公助手、会议系统、保险理财、供应链管理,等等。


比如针对医疗资源不均衡、人人都想看专家的看病难问题,晶耀智远打造了 AI 多智能体医疗科研解决方案。
它以锐龙 AI Max+ 395 为核心算力底座,形成了适配医院科室的本地化、轻量化、高算力的智慧医疗服务体系,集成医疗专用算法和专家知识库,融入专科医生的思维链,6 大功能智能体可全面覆盖诊疗、建档、预警、应急等场景,有效解决了对医疗专业模型幻觉、数据管理难等痛点。

在教育行业更是实现了全场景覆盖的解决方案矩阵,覆盖教学、科研、教务、管理等四大教育核心环节,遍布同济大学、北京大学、南京医科大学、复旦大学等等,都运行在不同品牌的锐龙 AI Max+ 395 迷你工作站上。
比如为了解决高校科研人员研读海量专业论文费时费力的问题,Ryypol 创新性地将静态论文转化为 " 可交互对话 " 的智能体,不仅能随时解答文献疑问,更能深度解析晦涩原理,利用 " 文生图 " 技术将抽象概念直观可视化。
比如行者 AI 的校园智算终端解决方案,以自研多模态大模型为核心,融合 AI+ 美术、AI+ 音乐技术,提供 AI 绘画、智能评测、互动创作、词曲生成等一体化能力,目前已覆盖 30 余个省市、300 多所院校。

2025 年普遍被视为 " 智能体元年 ",OpenAI 创始人之一 Andrej Karpathy 则认为,2025 年是我们进入 " 智能体元十年 " 的开端。
很显然,智能体将在很长一段时间内处于起步阶段,众多技术和非技术原因都注定了它不可能快速成熟、普及,需要通过硬件、软件、生态等各方面的持续大力培育。
" 养龙虾 " 的火爆很好地印证了这一点。它一方面吸引了更多人尝试智能体,另一方面也暴露了诸多亟待改进的问题,包括如何降低使用门槛、如何保证安全、如何节省成本等等。
在这方面,AMD 凭借全方位领先的 AI 技术和产品,做了很好的努力和尝试,提供了一个非常好的思路。

可以说,AMD 锐龙 AI Max 系列平台堪称当今 Windows 端侧 AI 算力的天花板,也是养龙虾这种本地智能体运行的理想底座。
凭借 Zen 5 CPU、RDNA 3.5 GPU、XDNA 2 NPU 三大先进架构算力引擎,独特的 128GB 超大统一内存、96GB 超大动态显存能力,再加上丰富的产品形态、成熟的 Windows 11 生态系统,锐龙 AI Max 系列绝对是智能体主机的首选平台,全面实现跑得多、跑得快,还省钱,又安全。
也许,你真的需要考虑来一台 " 龙虾专用机 " 了!



登录后才可以发布评论哦
打开小程序可以发布评论哦