momiji8888 commited on
Commit
112df04
·
verified ·
1 Parent(s): c19e5ac

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +11 -10
README.md CHANGED
@@ -15,12 +15,12 @@ base_model:
15
 
16
  ### Model Description
17
 
18
- llm-jp-3.13bをベースモデルにichikara-instruction-003でSFTを実施したモデル
19
 
20
- 配布されたLoRA_templateをベースに以下のとおりパラメータを変更。
21
- PEFTのLoRAのスケーリング係数を調整。
22
- ・学習の評価バッチサイズ、購買累積回数及び学習率を調整。auto_find_batch_sizeをTrueに設定。
23
- SFTの設定にneftune_noise_alphaを追加。
24
 
25
 
26
  ### Sample Uses
@@ -44,21 +44,21 @@ import torch
44
  from tqdm import tqdm
45
  import json
46
 
47
- HF_TOKEN = "****(your token)"
48
 
49
  # ベースとなるモデル(llm-jp/llm-jp-3-13b)と学習したLoRAのアダプタID(momiji8888/momijillm-jp-3-finetune3)
50
  model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a"
51
 
52
- adapter_id = "momiji8888/momijillm-jp-3-finetune3"
53
 
54
- # QLoRA config
55
  bnb_config = BitsAndBytesConfig(
56
  load_in_4bit=True,
57
  bnb_4bit_quant_type="nf4",
58
  bnb_4bit_compute_dtype=torch.bfloat16,
59
  )
60
 
61
- # Load model
62
  model = AutoModelForCausalLM.from_pretrained(
63
  model_id,
64
  quantization_config=bnb_config,
@@ -66,13 +66,14 @@ model = AutoModelForCausalLM.from_pretrained(
66
  token = HF_TOKEN
67
  )
68
 
69
- # Load tokenizer
70
  tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True, token = HF_TOKEN)
71
 
72
  # 元のモデルにLoRAのアダプタを統合
73
  model = PeftModel.from_pretrained(model, adapter_id, token = HF_TOKEN)
74
 
75
  # elyza-tasks-100-TVのデータセットの読み込み
 
76
  with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
77
  item = ""
78
  for line in f:
 
15
 
16
  ### Model Description
17
 
18
+ llm-jp-3.13bをベースモデルにichikara-instruction-003でSFTを実施したモデルです。
19
 
20
+ 配布されたLoRA_templateをベースに以下のとおりパラメータを変更しています。
21
+ PEFTのLoRAのスケーリング係数を調整。
22
+ ○学習の評価バッチサイズ、購買累積回数及び学習率を調整。auto_find_batch_sizeをTrueに設定。
23
+ SFTの設定にneftune_noise_alphaを追加。
24
 
25
 
26
  ### Sample Uses
 
44
  from tqdm import tqdm
45
  import json
46
 
47
+ HF_TOKEN = "******(your token)"
48
 
49
  # ベースとなるモデル(llm-jp/llm-jp-3-13b)と学習したLoRAのアダプタID(momiji8888/momijillm-jp-3-finetune3)
50
  model_id = "models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a"
51
 
52
+ adapter_id = "momiji8888/momijillm-jp-3-finetune3"
53
 
54
+ # QLoRAの設定
55
  bnb_config = BitsAndBytesConfig(
56
  load_in_4bit=True,
57
  bnb_4bit_quant_type="nf4",
58
  bnb_4bit_compute_dtype=torch.bfloat16,
59
  )
60
 
61
+ # モデルの読み込み
62
  model = AutoModelForCausalLM.from_pretrained(
63
  model_id,
64
  quantization_config=bnb_config,
 
66
  token = HF_TOKEN
67
  )
68
 
69
+ # トークナイザーの読み込み
70
  tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True, token = HF_TOKEN)
71
 
72
  # 元のモデルにLoRAのアダプタを統合
73
  model = PeftModel.from_pretrained(model, adapter_id, token = HF_TOKEN)
74
 
75
  # elyza-tasks-100-TVのデータセットの読み込み
76
+ datasets = []
77
  with open("./elyza-tasks-100-TV_0.jsonl", "r") as f:
78
  item = ""
79
  for line in f: