Spaces:
Running
on
Zero
Running
on
Zero
tori29umai
commited on
Update app.py
Browse files
app.py
CHANGED
@@ -68,7 +68,7 @@ class LlamaCppAdapter:
|
|
68 |
self.llama = None
|
69 |
|
70 |
@spaces.GPU(duration=120)
|
71 |
-
def initialize_and_generate(self, prompt, max_new_tokens=
|
72 |
if self.llama is None:
|
73 |
print(f"モデルの初期化: {self.model_path}")
|
74 |
try:
|
@@ -93,7 +93,7 @@ class LlamaCppAdapter:
|
|
93 |
print(f"生成中にエラーが発生しました: {e}")
|
94 |
return {"choices": [{"text": "生成中にエラーが発生しました。"}]}
|
95 |
|
96 |
-
def generate(self, prompt, max_new_tokens=
|
97 |
return self.initialize_and_generate(prompt, max_new_tokens, temperature, top_p, top_k, stop)
|
98 |
|
99 |
# キャラクターメーカークラス
|
|
|
68 |
self.llama = None
|
69 |
|
70 |
@spaces.GPU(duration=120)
|
71 |
+
def initialize_and_generate(self, prompt, max_new_tokens=10000, temperature=0.5, top_p=0.7, top_k=80, stop=["<END>"]):
|
72 |
if self.llama is None:
|
73 |
print(f"モデルの初期化: {self.model_path}")
|
74 |
try:
|
|
|
93 |
print(f"生成中にエラーが発生しました: {e}")
|
94 |
return {"choices": [{"text": "生成中にエラーが発生しました。"}]}
|
95 |
|
96 |
+
def generate(self, prompt, max_new_tokens=10000, temperature=0.5, top_p=0.7, top_k=80, stop=["<END>"]):
|
97 |
return self.initialize_and_generate(prompt, max_new_tokens, temperature, top_p, top_k, stop)
|
98 |
|
99 |
# キャラクターメーカークラス
|