huggingfaceのモデルカード上にデータセットを記載する
#1
by
ddyuudd
- opened
README.md
CHANGED
@@ -1,5 +1,7 @@
|
|
1 |
---
|
2 |
license: cc-by-4.0
|
|
|
|
|
3 |
---
|
4 |
|
5 |
Mixtral8X7B Instructの日本語生成を安定させるためのLoraです。
|
@@ -73,4 +75,4 @@ num_fewshot: 2, batch_size: 1
|
|
73 |
Lora学習時のcontext長は4096tokenまでですが、4k token以上の出力も可能です。
|
74 |
|
75 |
注:bf16での使用を想定しています。
|
76 |
-
量子化推論する場合は、bf16でモデルを読み込んだ状態でLora適応またはマージ、その後に量子化してください。
|
|
|
1 |
---
|
2 |
license: cc-by-4.0
|
3 |
+
datasets:
|
4 |
+
- cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental
|
5 |
---
|
6 |
|
7 |
Mixtral8X7B Instructの日本語生成を安定させるためのLoraです。
|
|
|
75 |
Lora学習時のcontext長は4096tokenまでですが、4k token以上の出力も可能です。
|
76 |
|
77 |
注:bf16での使用を想定しています。
|
78 |
+
量子化推論する場合は、bf16でモデルを読み込んだ状態でLora適応またはマージ、その後に量子化してください。
|