Aratako commited on
Commit
27a8c8b
1 Parent(s): 74e7581

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +92 -4
README.md CHANGED
@@ -13,13 +13,101 @@ tags:
13
  [GGUF版はこちら/Click here for the GGUF version](https://huggingface.co/Aratako/LightChatAssistant-4x7B-GGUF)
14
 
15
  ## 概要
16
- [Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)と全く同じ手法を用いつつ、対象を4モデルに拡張してそれらをMoEしたモデルです。
17
- 素晴らしい手法を提案いただいた[@Sdff-Ltba](https://huggingface.co/Sdff-Ltba)さんに感謝します。
18
 
19
- 以下の4モデルをChatVectorの加算によって対話強化して素材に使用しています。
 
 
 
20
  - [NTQAI/chatntq-ja-7b-v1.0](https://huggingface.co/NTQAI/chatntq-ja-7b-v1.0)
21
  - [stabilityai/japanese-stablelm-instruct-gamma-7b](https://huggingface.co/stabilityai/japanese-stablelm-instruct-gamma-7b)
22
  - [Elizezen/Antler-7B](https://huggingface.co/Elizezen/Antler-7B)
23
  - [Elizezen/Hameln-japanese-mistral-7B](https://huggingface.co/Elizezen/Hameln-japanese-mistral-7B)
24
 
25
- ※詳細は後ほど更新
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
13
  [GGUF版はこちら/Click here for the GGUF version](https://huggingface.co/Aratako/LightChatAssistant-4x7B-GGUF)
14
 
15
  ## 概要
16
+ [Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)と全く同じ手法を用いつつ、対象を4モデルに拡張してそれらをMoEしたモデルです。素晴らしい手法を提案いただいた[@Sdff-Ltba](https://huggingface.co/Sdff-Ltba)さんに感謝します。
 
17
 
18
+ モデルサイズは大きくなっていますが、推論に同時に使われるエキスパートは2つなので、GPUにオフロードさえできれば元の[Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)とほぼ同じような速度で動きます。
19
+
20
+
21
+ 以下の4モデルをChat Vectorの加算によって対話強化して素材に使用しています。
22
  - [NTQAI/chatntq-ja-7b-v1.0](https://huggingface.co/NTQAI/chatntq-ja-7b-v1.0)
23
  - [stabilityai/japanese-stablelm-instruct-gamma-7b](https://huggingface.co/stabilityai/japanese-stablelm-instruct-gamma-7b)
24
  - [Elizezen/Antler-7B](https://huggingface.co/Elizezen/Antler-7B)
25
  - [Elizezen/Hameln-japanese-mistral-7B](https://huggingface.co/Elizezen/Hameln-japanese-mistral-7B)
26
 
27
+ Chat Vectorの適用方法は[Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)と同じで、Mistral-7B-Instruct-v0.2とMistral-7B-v0.1の差分を0.8倍してそれぞれのモデルに足しています。
28
+
29
+ その後、[mergekit](https://github.com/cg123/mergekit)を使い、4モデルをMoEしました。MoEのconfigは以下の通りです。
30
+
31
+ ```yaml
32
+ base_model: ./chatntq-chatvector
33
+ gate_mode: hidden
34
+ dtype: bfloat16
35
+ experts:
36
+ - source_model: ./chatntq-chatvector
37
+ positive_prompts:
38
+ - "roleplay"
39
+ - "question"
40
+ - "answer"
41
+ - "chat"
42
+ - "companion"
43
+ - "character"
44
+ - "math"
45
+ - "code"
46
+ - "[Mode: Roleplay]"
47
+ - "[Mode: Chat]"
48
+ negative_prompts:
49
+ - "storywriting"
50
+ - "book"
51
+ - "story"
52
+ - "chapter"
53
+ - "tale"
54
+ - "history"
55
+ - "write"
56
+ - "novel"
57
+ - "[Mode: Writing]"
58
+ - source_model: ./japanese-stablelm-instruct-gamma-chatvector
59
+ positive_prompts:
60
+ - "roleplay"
61
+ - "question"
62
+ - "answer"
63
+ - "chat"
64
+ - "companion"
65
+ - "character"
66
+ - "math"
67
+ - "code"
68
+ - "[Mode: Roleplay]"
69
+ - "[Mode: Chat]"
70
+ negative_prompts:
71
+ - "storywriting"
72
+ - "book"
73
+ - "story"
74
+ - "chapter"
75
+ - "tale"
76
+ - "history"
77
+ - "write"
78
+ - "novel"
79
+ - "[Mode: Writing]"
80
+ - source_model: ./Hameln-japanese-mistral-chatvector
81
+ positive_prompts:
82
+ - "sex"
83
+ - "storywriting"
84
+ - "erotic"
85
+ - "fuck"
86
+ - "orgasm"
87
+ - "uncensored"
88
+ - "book"
89
+ - "story"
90
+ - "chapter"
91
+ - "tale"
92
+ - "history"
93
+ - "write"
94
+ - "novel"
95
+ - "[Mode: Writing]"
96
+ - source_model: ./Antler-chatvector
97
+ positive_prompts:
98
+ - "sex"
99
+ - "storywriting"
100
+ - "erotic"
101
+ - "fuck"
102
+ - "orgasm"
103
+ - "uncensored"
104
+ - "book"
105
+ - "story"
106
+ - "chapter"
107
+ - "tale"
108
+ - "history"
109
+ - "write"
110
+ - "novel"
111
+ - "[Mode: Writing]"
112
+ tokenizer_source: union
113
+ ```