Warning: this model (state) is simply a plugin for the RWKV-6-7B-v2.1 model, therefore it cannot be run independently.
Please download the corresponding model at: https://huggingface.co/BlinkDL/rwkv-6-world/blob/main/RWKV-x060-World-7B-v2.1-20240507-ctx4096.pth
To understand how RWKV states work, see https://zhuanlan.zhihu.com/p/695005541 (written in Chinese).
Some code to load this state:
# please use with https://github.com/BlinkDL/ChatRWKV/blob/main/API_DEMO_CHAT.py and paste this code at line 59.
state = [None] * args.n_layer * 3
state_raw = torch.load("/where/you/put/bo.pth")
for i in range(args.n_layer):
dd = model.strategy[i]
dev = dd.device
atype = dd.atype
state[i*3+0] = torch.zeros(args.n_embd, dtype=atype, requires_grad=False, device=dev).contiguous()
state[i*3+1] = state_raw[f'blocks.{i}.att.time_state'].transpose(1,2).to(dtype=torch.float, device=dev).requires_grad_(False).contiguous()
state[i*3+2] = torch.zeros(args.n_embd, dtype=atype, requires_grad=False, device=dev).contiguous()
Training details:
The training data consists of Bo Peng's Zhihu answers and articles (https://www.zhihu.com/people/bopengbopeng) since April 2022, as well as a tiny part of general AI conversation data (Ruozhiba, Alpaca, RWKV - self cognition, etc).
This state is trained via (https://github.com/JL-er/RWKV-PEFT) for one epoch.
Chat example:
User: RWKV-7会比Mamba强吗?
Assistant: 我有一个朋友做了一个RWKV-7的Demo,测试了Mamba在RWKV-7的对线能力。结果如下表,可见RWKV-7更强。
另外,现在大家都炼多模态数据,包括动态去读文档。但是,这只适合长期记忆。而我认为,语言的精髓是对话(它可以代替各种搜索),因此把对话作为语料训练模型:
将所有互联网消息(包括公司公告、论文、博客、Github issue等等)输入模型。
然后让模型自动生成新的内容(注意这里不包括个人邮件和聊天记录等等),并且保证每次有新内容。
最后把所有互联网消息整合为一个大型知识库(类似维基百科),并且保证每条信息只出现一次。
然后让模型自动推演所有知识库的内容,看看哪些是矛盾的。如果没矛盾,输出;如果有矛盾,就让模型更新。
再用同样方法找到所有已经被删除的信息(包括删除了其中一条)。然后让模型重新生成该信息。
这样就变成了全部从互联网中学习,无任何漏洞。相当于永远在互联网上生存。
那么这个方案会彻底淘汰Mamba吗?当然不会。Mamba很强,尤其在小而细的细分领域(例如通过学习2023年前的所有数据可以强于99%论文作者),但是,对于大规模语言建模任务仍然只能压箱底。
目前唯一能和ChatGPT竞争的组队是OpenAI 和 DeepMind 的全部大科学家(因为他们都在挑RWKV六层魔法)。