masamori commited on
Commit
2455251
1 Parent(s): f7d8544

update Readme

Browse files
Files changed (1) hide show
  1. README.md +18 -24
README.md CHANGED
@@ -14,24 +14,16 @@ tags:
14
 
15
  # Sample Use
16
  ```python
17
- MODEL_DIR = os.path.join("model_dir")
 
 
18
 
19
- def load_model():
20
- print("モデルとトークナイザーを読み込み中...")
21
- tokenizer = AutoTokenizer.from_pretrained(MODEL_DIR)
22
- model = AutoModelForCausalLM.from_pretrained(
23
- MODEL_DIR,
24
- torch_dtype=torch.float16,
25
- device_map={"": 0}, # 明示的にGPU割り当て
26
- use_cache=True, # キャッシュを有効化
27
- ).to('cuda') # 明示的にGPUへ
28
 
29
- model.eval() # 評価モード
30
- return model, tokenizer
31
 
32
  def generate_predictions(model, tokenizer, input_file, output_file):
33
  # バッチ処理の追加
34
- BATCH_SIZE = 8 # バッチサイズの設定
35
 
36
  print(f"入力ファイルを読み込み中: {input_file}")
37
  tasks = []
@@ -54,30 +46,32 @@ def generate_predictions(model, tokenizer, input_file, output_file):
54
  padding=True,
55
  truncation=True,
56
  max_length=512
57
- ).to('cuda')
58
 
59
  with torch.no_grad():
60
  outputs = model.generate(
61
  inputs.input_ids,
62
  max_length=512,
63
- temperature=0.7,
64
  do_sample=False,
65
  repetition_penalty=1.2,
66
  pad_token_id=tokenizer.pad_token_id,
67
- num_return_sequences=1,
 
68
  early_stopping=True, # 早期停止を有効化
69
  use_cache=True # キャッシュを使用
70
  )
71
 
72
  # バッチ出力の処理
73
- for j, output in enumerate(outputs):
74
- generated_text = tokenizer.decode(output, skip_special_tokens=True)
75
- output_text = generated_text.split("出力: ")[-1].strip()
76
-
77
- results.append({
78
- "task_id": batch_tasks[j]["task_id"],
79
- "output": output_text
80
- })
 
81
 
82
  print(f"結果を保存中: {output_file}")
83
  with open(output_file, 'w', encoding='utf-8') as f:
 
14
 
15
  # Sample Use
16
  ```python
17
+ from tqdm import tqdm
18
+ import json
19
+ import os
20
 
21
+ MODEL_DIR = os.path.join(BASE_DIR, "fine_tuned_model")
 
 
 
 
 
 
 
 
22
 
 
 
23
 
24
  def generate_predictions(model, tokenizer, input_file, output_file):
25
  # バッチ処理の追加
26
+ BATCH_SIZE = 16 # バッチサイズの設定
27
 
28
  print(f"入力ファイルを読み込み中: {input_file}")
29
  tasks = []
 
46
  padding=True,
47
  truncation=True,
48
  max_length=512
49
+ )
50
 
51
  with torch.no_grad():
52
  outputs = model.generate(
53
  inputs.input_ids,
54
  max_length=512,
55
+ temperature=0.9,
56
  do_sample=False,
57
  repetition_penalty=1.2,
58
  pad_token_id=tokenizer.pad_token_id,
59
+ top_k=50,
60
+ top_p=0.95,
61
  early_stopping=True, # 早期停止を有効化
62
  use_cache=True # キャッシュを使用
63
  )
64
 
65
  # バッチ出力の処理
66
+ for k, task in enumerate(batch_tasks): # 各タスクについてループ
67
+ output_index = k # インデックスはタスクごとに1つだけ
68
+ if output_index < len(outputs): # 範囲外アクセスを防ぐ
69
+ generated_text = tokenizer.decode(outputs[output_index], skip_special_tokens=True)
70
+ output_text = generated_text.split("出力: ")[-1].strip()
71
+ results.append({
72
+ "task_id": task["task_id"], # 正しいタスクIDを取得
73
+ "output": output_text # 対応する出力
74
+ })
75
 
76
  print(f"結果を保存中: {output_file}")
77
  with open(output_file, 'w', encoding='utf-8') as f: