momiji8888
commited on
Update README.md
Browse files
README.md
CHANGED
@@ -15,12 +15,12 @@ base_model:
|
|
15 |
|
16 |
### Model Description
|
17 |
|
18 |
-
llm-jp-3.13bをベースモデルにichikara-instruction-003でSFT
|
19 |
|
20 |
-
配布されたLoRA_template
|
21 |
-
|
22 |
-
|
23 |
-
|
24 |
|
25 |
|
26 |
### Sample Uses
|
@@ -44,21 +44,21 @@ import torch
|
|
44 |
from tqdm import tqdm
|
45 |
import json
|
46 |
|
47 |
-
HF_TOKEN = "
|
48 |
|
49 |
# ベースとなるモデル(llm-jp/llm-jp-3-13b)と学習したLoRAのアダプタID(momiji8888/momijillm-jp-3-finetune3)
|
50 |
model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a"
|
51 |
|
52 |
-
adapter_id = "momiji8888/momijillm-jp-3-finetune3"
|
53 |
|
54 |
-
# QLoRA
|
55 |
bnb_config = BitsAndBytesConfig(
|
56 |
load_in_4bit=True,
|
57 |
bnb_4bit_quant_type="nf4",
|
58 |
bnb_4bit_compute_dtype=torch.bfloat16,
|
59 |
)
|
60 |
|
61 |
-
#
|
62 |
model = AutoModelForCausalLM.from_pretrained(
|
63 |
model_id,
|
64 |
quantization_config=bnb_config,
|
@@ -66,13 +66,14 @@ model = AutoModelForCausalLM.from_pretrained(
|
|
66 |
token = HF_TOKEN
|
67 |
)
|
68 |
|
69 |
-
#
|
70 |
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True, token = HF_TOKEN)
|
71 |
|
72 |
# 元のモデルにLoRAのアダプタを統合
|
73 |
model = PeftModel.from_pretrained(model, adapter_id, token = HF_TOKEN)
|
74 |
|
75 |
# elyza-tasks-100-TVのデータセットの読み込み
|
|
|
76 |
with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
|
77 |
item = ""
|
78 |
for line in f:
|
|
|
15 |
|
16 |
### Model Description
|
17 |
|
18 |
+
llm-jp-3.13bをベースモデルにichikara-instruction-003でSFTを実施したモデルです。
|
19 |
|
20 |
+
配布されたLoRA_templateをベースに以下のとおりパラメータを変更しています。
|
21 |
+
○PEFTのLoRAのスケーリング係数を調整。
|
22 |
+
○学習の評価バッチサイズ、購買累積回数及び学習率を調整。auto_find_batch_sizeをTrueに設定。
|
23 |
+
○SFTの設定にneftune_noise_alphaを追加。
|
24 |
|
25 |
|
26 |
### Sample Uses
|
|
|
44 |
from tqdm import tqdm
|
45 |
import json
|
46 |
|
47 |
+
HF_TOKEN = "******(your token)"
|
48 |
|
49 |
# ベースとなるモデル(llm-jp/llm-jp-3-13b)と学習したLoRAのアダプタID(momiji8888/momijillm-jp-3-finetune3)
|
50 |
model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a"
|
51 |
|
52 |
+
adapter_id = "momiji8888/momijillm-jp-3-finetune3"
|
53 |
|
54 |
+
# QLoRAの設定
|
55 |
bnb_config = BitsAndBytesConfig(
|
56 |
load_in_4bit=True,
|
57 |
bnb_4bit_quant_type="nf4",
|
58 |
bnb_4bit_compute_dtype=torch.bfloat16,
|
59 |
)
|
60 |
|
61 |
+
# モデルの読み込み
|
62 |
model = AutoModelForCausalLM.from_pretrained(
|
63 |
model_id,
|
64 |
quantization_config=bnb_config,
|
|
|
66 |
token = HF_TOKEN
|
67 |
)
|
68 |
|
69 |
+
# トークナイザーの読み込み
|
70 |
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True, token = HF_TOKEN)
|
71 |
|
72 |
# 元のモデルにLoRAのアダプタを統合
|
73 |
model = PeftModel.from_pretrained(model, adapter_id, token = HF_TOKEN)
|
74 |
|
75 |
# elyza-tasks-100-TVのデータセットの読み込み
|
76 |
+
datasets = []
|
77 |
with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
|
78 |
item = ""
|
79 |
for line in f:
|