RWKV 文档首页
欢迎来到 RWKV 中文文档,可在此处了解 RWKV 的概念性知识,包括但不限于:
- RWKV 的介绍,比如架构迭代历史、模型版本、训练数据集、本地部署的显存需求等
- RWKV 的基准测试表现如何?在不同设备(如各种 GPU/CPU/NPU 等)的推理速度如何?
- RWKV 社区有哪些优秀的项目?如何参与 RWKV 社区并贡献您的力量?
RWKV 文档不包含实操教程,如果您需要学习 RWKV 的具体用法,比如本地部署、微调训练,请参考 RWKV 教程。
了解 RWKV
刚接触 RWKV 的用户可能想知道 RWKV 是什么。
RWKV 是一个大语言模型架构,基于这个架构训练出来的 RWKV 模型可以生成文本。
有一些 RWKV 的多模态模型可以生成图像、声音等多种形态的内容。
对于 RWKV,您可能想了解这些事情:

快速了解 RWKV
速览 RWKV 的架构版本、模型和论文发布等信息

RWKV 的架构和历史
RWKV 从 V1 到 V7 的架构变更和设计思路

RWKV 推理的显存需求
本地部署不同参数的 RWKV 模型需要多少显存

RWKV 的训练数据集
训练 RWKV 模型使用了哪些数据集?

RWKV 的常见问题
关于 RWKV 架构和模型的一些常见问题
改善模型的生成质量
由于 RNN 本身的特性,RWKV 基底模型对提示词更加敏感。
改进提示词格式或调整 RWKV 模型的解码参数**,可以提高 RWKV 模型的生成质量。

RWKV 的解码参数
了解 RWKV 模型的解码参数,以改善模型的生成效果

RWKV 的提示词格式
了解 RWKV 偏好的提示词格式,以改善模型的输出质量

聊天提示词示例
RWKV 模型在聊天模式的提示词示例

续写提示词示例
RWKV 模型在续写模式的提示词示例
RWKV 的客观测试性能
RWKV 的客观测试性能数据,含 MMLU、LongBench 等基准测试:
RWKV 的端侧推理性能
RWKV 的端侧推理性能数据,如 AMD GPU、摩尔线程 GPU、移动端芯片:
加入 RWKV 社区
查看 RWKV 社区的优秀项目,了解如何参与 RWKV 社区并贡献您的力量:
如何反馈文档问题?
遇到任何文档相关的问题(包括但不限于:错别字、文档不完整、文档难以理解或希望看到某一类文档等),请通过以下渠道向我们反馈:
- 通过 GitHub Issue 向我们反馈
- 在 RWKV 论坛 中发帖反馈
- 向我们发送邮件
- 加入 RWKV QQ 交流群 224287095 讨论
这份文档对您有帮助吗?
意见反馈(可选)
联系方式(可选)