Spaces:
Running
on
Zero
Running
on
Zero
tori29umai
commited on
Update app.py
Browse files
app.py
CHANGED
@@ -27,14 +27,8 @@ MODEL_DIR = os.path.join(os.path.dirname(os.path.abspath(__file__)), "models")
|
|
27 |
# モデルディレクトリが存在しない場合は作成
|
28 |
if not os.path.exists("models"):
|
29 |
os.makedirs("models")
|
30 |
-
|
31 |
-
|
32 |
-
model_filename = "Mistral-Nemo-Instruct-2407-Q8_0.gguf"
|
33 |
-
model_path = os.path.join("models", model_filename)
|
34 |
-
|
35 |
-
# モデルファイルが存在しない場合はダウンロード
|
36 |
-
if not os.path.exists(model_path):
|
37 |
-
dl_guff_model("models", f"https://huggingface.co/second-state/Mistral-Nemo-Instruct-2407-GGUF/resolve/main/{model_filename}")
|
38 |
|
39 |
|
40 |
class ConfigManager:
|
@@ -174,8 +168,8 @@ class Settings:
|
|
174 |
"assistant: プロットについてコメントをする前に、まずこの物語の『売り』について簡単に説明してください",
|
175 |
],
|
176 |
'gen_author_description': 'あなたは新進気鋭の和風伝奇ミステリー小説家で、細やかな筆致と巧みな構成で若い世代にとても人気があります。',
|
177 |
-
'DEFAULT_CHAT_MODEL': '
|
178 |
-
'DEFAULT_GEN_MODEL': '
|
179 |
'chat_n_gpu_layers': -1,
|
180 |
'chat_temperature': 0.35,
|
181 |
'chat_top_p': 0.9,
|
@@ -669,6 +663,13 @@ def build_gradio_interface():
|
|
669 |
return f"{section}セクションの{key}を更新しました。適用ボタンを押すと設定が保存されます。"
|
670 |
|
671 |
with gr.Blocks() as iface:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
672 |
gr.HTML("""
|
673 |
<style>
|
674 |
#chatbot, #chatbot_read {
|
|
|
27 |
# モデルディレクトリが存在しない場合は作成
|
28 |
if not os.path.exists("models"):
|
29 |
os.makedirs("models")
|
30 |
+
dl_guff_model("models", "https://huggingface.co/MCZK/Llama-3.1-8B-EZO-1.1-it-GGUF/resolve/main/resolve/main/Llama-3.1-8B-EZO-1.1-it.Q8_0.gguf")
|
31 |
+
dl_guff_model("models", "https://huggingface.co/second-state/Mistral-Nemo-Instruct-2407-GGUF/resolve/main/Mistral-Nemo-Instruct-2407-Q8_0.gguf")
|
|
|
|
|
|
|
|
|
|
|
|
|
32 |
|
33 |
|
34 |
class ConfigManager:
|
|
|
168 |
"assistant: プロットについてコメントをする前に、まずこの物語の『売り』について簡単に説明してください",
|
169 |
],
|
170 |
'gen_author_description': 'あなたは新進気鋭の和風伝奇ミステリー小説家で、細やかな筆致と巧みな構成で若い世代にとても人気があります。',
|
171 |
+
'DEFAULT_CHAT_MODEL': 'Llama-3.1-8B-EZO-1.1-it.Q8_0.gguf',
|
172 |
+
'DEFAULT_GEN_MODEL': 'Llama-3.1-8B-EZO-1.1-it.Q8_0.gguf',
|
173 |
'chat_n_gpu_layers': -1,
|
174 |
'chat_temperature': 0.35,
|
175 |
'chat_top_p': 0.9,
|
|
|
663 |
return f"{section}セクションの{key}を更新しました。適用ボタンを押すと設定が保存されます。"
|
664 |
|
665 |
with gr.Blocks() as iface:
|
666 |
+
# 新しいメッセージを追加
|
667 |
+
gr.HTML("""
|
668 |
+
<div style="background-color: #f0f0f0; padding: 10px; margin-bottom: 10px; border-radius: 5px;">
|
669 |
+
<strong>注意:</strong> NSFW創作用途の場合はモデルを設定タブから、「Mistral-Nemo-Instruct-2407-Q8_0.gguf」に変更推奨です
|
670 |
+
</div>
|
671 |
+
""")
|
672 |
+
|
673 |
gr.HTML("""
|
674 |
<style>
|
675 |
#chatbot, #chatbot_read {
|