Update server.js
Browse files
server.js
CHANGED
@@ -45,7 +45,7 @@ app.post('/pl', async (req, res) => {
|
|
45 |
const response = await axios.post('https://openai-gemini-iota.vercel.app/v1/chat/completions', {
|
46 |
messages: [{'role': 'system', 'content': start}, {'role': 'user', 'content': prompt}],
|
47 |
max_tokens: 2000,
|
48 |
-
temperature: 0.
|
49 |
model: "gemini-1.5-pro-001",
|
50 |
}, {
|
51 |
headers: {
|
@@ -79,7 +79,7 @@ app.post('/cre', async (req, res) => {
|
|
79 |
const response = await axios.post('https://vercel.com/roonis-projects/openai-gemini/v1/chat/completions', {
|
80 |
messages: [{'role': 'system', 'content': start}, {'role': 'system', 'content': 'И ОБЯЗАТЕЛЬНО, всегда в конце "text" проси обновить приложение, уведомляя о том, что скоро в жтой версии перестанешь отвечать!'}, {'role': 'user', 'content': prompt}],
|
81 |
max_tokens: 2000,
|
82 |
-
temperature: 0.
|
83 |
model: "gemini-1.5-pro-001",
|
84 |
}, {
|
85 |
headers: {
|
|
|
45 |
const response = await axios.post('https://openai-gemini-iota.vercel.app/v1/chat/completions', {
|
46 |
messages: [{'role': 'system', 'content': start}, {'role': 'user', 'content': prompt}],
|
47 |
max_tokens: 2000,
|
48 |
+
temperature: 0.19,
|
49 |
model: "gemini-1.5-pro-001",
|
50 |
}, {
|
51 |
headers: {
|
|
|
79 |
const response = await axios.post('https://vercel.com/roonis-projects/openai-gemini/v1/chat/completions', {
|
80 |
messages: [{'role': 'system', 'content': start}, {'role': 'system', 'content': 'И ОБЯЗАТЕЛЬНО, всегда в конце "text" проси обновить приложение, уведомляя о том, что скоро в жтой версии перестанешь отвечать!'}, {'role': 'user', 'content': prompt}],
|
81 |
max_tokens: 2000,
|
82 |
+
temperature: 0.19,
|
83 |
model: "gemini-1.5-pro-001",
|
84 |
}, {
|
85 |
headers: {
|