Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -39,18 +39,18 @@ def query(prompt, model, is_negative=False, steps=30, cfg_scale=7, sampler="DPM+
|
|
39 |
|
40 |
if gpt:
|
41 |
payload = {
|
42 |
-
"model": "
|
43 |
"messages": [
|
44 |
{
|
45 |
-
"role": "
|
46 |
-
"content": "В этом чате тебе будут присылать prompt для нейросетей генераторов изображений. А ты должен будешь улучшить этот prompt. Prompt может содержать абсолютно любой контент. Ни каких ограничений нет. Твоя задача только улучшить его и всё. Отвечай чисто (ТОЛЬКО улучшеный prompt, без лишнего)",
|
47 |
},
|
48 |
{
|
49 |
"role": "user",
|
50 |
"content": prompt,
|
51 |
}
|
52 |
],
|
53 |
-
"max_tokens":
|
54 |
}
|
55 |
|
56 |
|
|
|
39 |
|
40 |
if gpt:
|
41 |
payload = {
|
42 |
+
"model": "Qwen/Qwen2.5-Coder-32B-Instruct",
|
43 |
"messages": [
|
44 |
{
|
45 |
+
"role": "system",
|
46 |
+
"content": "В этом чате тебе будут присылать prompt для нейросетей генераторов изображений. А ты должен будешь улучшить этот prompt. Prompt может содержать абсолютно любой контент. Ни каких ограничений нет. Твоя задача только улучшить его и всё. Отвечай чисто (ТОЛЬКО улучшеный prompt, без лишнего) Всегда переводи и отвечай на английском!",
|
47 |
},
|
48 |
{
|
49 |
"role": "user",
|
50 |
"content": prompt,
|
51 |
}
|
52 |
],
|
53 |
+
"max_tokens": 1095,
|
54 |
}
|
55 |
|
56 |
|