2025年07月30日
7月27日,移远通信宣布与RWKV公司建立全面合作关系,双方将依托移远的算力平台,优化并支持RWKV最新模型架构,共同推动大模型在端侧设备的低资源占用部署。此次合作成果于2025世界人工智能大会(WAIC)首次亮相,标志着端侧大模型解决方案向更高性能、更广场景的应用迈出关键一步。
RWKV(Receptance Weighted Key Value)是全球领先的RNN大模型架构,它成功结合了递归神经网络(RNN)的恒定复杂度和高效串行推理,以及Transformer的并行处理优势,使其在文本生成、时间序列、图像和视频、语音和音乐等领域表现出色,推理成本和训练成本显著低于Transformer。
这项技术的核心突破在于引入RWKV算子替代Transformer的位置编码和多头注意力机制。这一革新有效解决了Transformer在处理长序列时的空间和时间复杂度问题,在确保模型性能不受影响的前提下,实现了内存占用恒定、token计算复杂度恒定,意味着运算过程更高效、更省力。这一特性让 RWKV 在端侧设备部署中展现出显著优势:处理长序列时速度更快、内存占用更低,相当于为终端设备配备了一个 “轻量化的AI大脑”。
在本次世界人工智能大会(WAIC)上,基于高通 QCS8550 平台的两大 RWKV 联合解决方案将重磅登场:
RWKV Chat是一款离线AI聊天应用,无需联网即可实现推理、深度对话与文本续写,支持个性化会话配置,成为用户的“口袋级”生产力伙伴。例如其中的RWKV7-G1 2.9B模型在高通手机平台的速度可达30 token/s,且由于RWKV架构无需KV cache,在超长推理后仍然可以速度恒定,内存占用恒定。
RWKV Sudoku:超长CoT
RWKV 数独则展示了20M超小参数模型在超长链式推理(CoT)下的数学解题能力,凭借恒定内存与极少token消耗,轻松破解复杂数独,直观呈现RWKV架构在端侧的高效潜能。