page contents

AMD发布OpenClaw参考主机:RyzenClaw和RadeonClaw 均可本地运行AI模型

芯片制造商 AMD 目前正在推动不依赖云端的人工智能愿景,即 AMD 希望开发者能够在本地运行大型语言模型,而不是像当前这样主要依靠调用云端的 AI 模型。

attachments-2026-04-Gq3Syhtk69dc4cd629f9d.png芯片制造商 AMD 目前正在推动不依赖云端的人工智能愿景,即 AMD 希望开发者能够在本地运行大型语言模型,而不是像当前这样主要依靠调用云端的 AI 模型。

为此 AMD 推出 OpenClaw 参考主机:RyzenClaw 和 RadeonClaw,这两款参考主机均附带强大的 AI 算力,可以在本地运行 AI 模型,当然代价就是这些参考主机的价格非常高。

这属于 AMD 智能体计算机 (Agent Computer) 计划的一部分,智能体计算机计划认为 AI 的未来不应该局限在远程数据中心,而是应该让用户掌握自己的数据和计算环境,让本地 AI 助手长期运行、降低云端 AI 依赖和订阅负担,当然还有缓解用户的隐私忧虑。

参考主机 1:RyzenClaw

RyzenClaw 方案围绕 AMD Ryzen AI Max + 处理器构建,配备 128GB 内存,AMD 建议将其中约 96GB 作为可变显存分配,用以保证大型语言模型推理效率。

在这个配置下,Qwen 3.5 35B A3B 模型的生成速度约为每秒 45 个 Token,处理 10K Tokens 输入大约需要 19.5 秒,模型支持约 260K 上下文窗口,可以用于多智能体工作流或智能体集群实验环境。

AMD 称 RyzenClaw 方案最多可以同时运行 6 个本地 AI 智能体,这在非数据中心级系统里颇具代表性。

参考主机 2:RadeonClaw

这个方案是将算力重心转到独立的 GPU --- Radeon AI PRO  R9700,这款工作站级显卡提供 32GB 专用显存,可以显著提升推理吞吐量。

在运行 Qwen 3.5 35B A3B 时,其生成速度约为每秒 120 个 Token,处理 10K Tokens 输入的时间约为 4.4 秒。

不过这种方案也存在性能方面的增益取舍:最大上下文窗口从 260K 缩减到 190K,并发智能体数量降至 2 个,这也凸显 AMD 试图提供不同调优路径的思路,即开发者可以根据自身需求,在更大上下文窗口和更高推理速度之间做出权衡。

但都不是普通消费者能负担得起的:

无论是 RyzenClaw 还是 RadeonClaw,都不是面向普通消费者的入门配置,例如 RyzenClaw,这台设备搭载 Ryzen AI Max+395 芯片并提供 128GB 内存,起步价格就要 2700 美元以上 (非官方价格)。

如果选择 RadeonClaw 那价格还要更高,因为还需要单独购买 Radeon AI PRO R9700 工作站显卡,这张显卡的零售价就有 1299 美元。

AMD 也坦言,OpenClaw 参考主机的主要目标用户就是尝试在本地运行 AI 智能体的工程师和早期采用者,并非主流 PC 用户。

更多相关技术内容咨询欢迎前往并持续关注好学星城论坛了解详情。

想高效系统的学习Python编程语言,推荐大家关注一个微信公众号:Python编程学习圈。每天分享行业资讯、技术干货供大家阅读,关注即可免费领取整套Python入门到进阶的学习资料以及教程,感兴趣的小伙伴赶紧行动起来吧。

attachments-2022-05-rLS4AIF8628ee5f3b7e12.jpg

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
Pack
Pack

1943 篇文章

作家榜 »

  1. 轩辕小不懂 2403 文章
  2. 小柒 2228 文章
  3. Pack 1943 文章
  4. Nen 576 文章
  5. 王昭君 209 文章
  6. 文双 71 文章
  7. 小威 64 文章
  8. Cara 36 文章