update Readme
Browse files
README.md
CHANGED
@@ -14,24 +14,16 @@ tags:
|
|
14 |
|
15 |
# Sample Use
|
16 |
```python
|
17 |
-
|
|
|
|
|
18 |
|
19 |
-
|
20 |
-
print("モデルとトークナイザーを読み込み中...")
|
21 |
-
tokenizer = AutoTokenizer.from_pretrained(MODEL_DIR)
|
22 |
-
model = AutoModelForCausalLM.from_pretrained(
|
23 |
-
MODEL_DIR,
|
24 |
-
torch_dtype=torch.float16,
|
25 |
-
device_map={"": 0}, # 明示的にGPU割り当て
|
26 |
-
use_cache=True, # キャッシュを有効化
|
27 |
-
).to('cuda') # 明示的にGPUへ
|
28 |
|
29 |
-
model.eval() # 評価モード
|
30 |
-
return model, tokenizer
|
31 |
|
32 |
def generate_predictions(model, tokenizer, input_file, output_file):
|
33 |
# バッチ処理の追加
|
34 |
-
BATCH_SIZE =
|
35 |
|
36 |
print(f"入力ファイルを読み込み中: {input_file}")
|
37 |
tasks = []
|
@@ -54,30 +46,32 @@ def generate_predictions(model, tokenizer, input_file, output_file):
|
|
54 |
padding=True,
|
55 |
truncation=True,
|
56 |
max_length=512
|
57 |
-
)
|
58 |
|
59 |
with torch.no_grad():
|
60 |
outputs = model.generate(
|
61 |
inputs.input_ids,
|
62 |
max_length=512,
|
63 |
-
temperature=0.
|
64 |
do_sample=False,
|
65 |
repetition_penalty=1.2,
|
66 |
pad_token_id=tokenizer.pad_token_id,
|
67 |
-
|
|
|
68 |
early_stopping=True, # 早期停止を有効化
|
69 |
use_cache=True # キャッシュを使用
|
70 |
)
|
71 |
|
72 |
# バッチ出力の処理
|
73 |
-
for
|
74 |
-
|
75 |
-
|
76 |
-
|
77 |
-
|
78 |
-
|
79 |
-
|
80 |
-
|
|
|
81 |
|
82 |
print(f"結果を保存中: {output_file}")
|
83 |
with open(output_file, 'w', encoding='utf-8') as f:
|
|
|
14 |
|
15 |
# Sample Use
|
16 |
```python
|
17 |
+
from tqdm import tqdm
|
18 |
+
import json
|
19 |
+
import os
|
20 |
|
21 |
+
MODEL_DIR = os.path.join(BASE_DIR, "fine_tuned_model")
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
22 |
|
|
|
|
|
23 |
|
24 |
def generate_predictions(model, tokenizer, input_file, output_file):
|
25 |
# バッチ処理の追加
|
26 |
+
BATCH_SIZE = 16 # バッチサイズの設定
|
27 |
|
28 |
print(f"入力ファイルを読み込み中: {input_file}")
|
29 |
tasks = []
|
|
|
46 |
padding=True,
|
47 |
truncation=True,
|
48 |
max_length=512
|
49 |
+
)
|
50 |
|
51 |
with torch.no_grad():
|
52 |
outputs = model.generate(
|
53 |
inputs.input_ids,
|
54 |
max_length=512,
|
55 |
+
temperature=0.9,
|
56 |
do_sample=False,
|
57 |
repetition_penalty=1.2,
|
58 |
pad_token_id=tokenizer.pad_token_id,
|
59 |
+
top_k=50,
|
60 |
+
top_p=0.95,
|
61 |
early_stopping=True, # 早期停止を有効化
|
62 |
use_cache=True # キャッシュを使用
|
63 |
)
|
64 |
|
65 |
# バッチ出力の処理
|
66 |
+
for k, task in enumerate(batch_tasks): # 各タスクについてループ
|
67 |
+
output_index = k # インデックスはタスクごとに1つだけ
|
68 |
+
if output_index < len(outputs): # 範囲外アクセスを防ぐ
|
69 |
+
generated_text = tokenizer.decode(outputs[output_index], skip_special_tokens=True)
|
70 |
+
output_text = generated_text.split("出力: ")[-1].strip()
|
71 |
+
results.append({
|
72 |
+
"task_id": task["task_id"], # 正しいタスクIDを取得
|
73 |
+
"output": output_text # 対応する出力
|
74 |
+
})
|
75 |
|
76 |
print(f"結果を保存中: {output_file}")
|
77 |
with open(output_file, 'w', encoding='utf-8') as f:
|