Spaces:
Running
on
Zero
Running
on
Zero
change limite
Browse files
chat_history.db
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:44dfe6ef4f80466f4a35ce6a782203f33b0e81021906887d67b5f78e2160574c
|
3 |
+
size 1777664
|
mysite/interpreter/interpreter_config.py
CHANGED
@@ -23,11 +23,11 @@ interpreter.llm.model = "Llama3-70b-8192"
|
|
23 |
interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
|
24 |
interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
|
25 |
|
26 |
-
interpreter.llm.max_tokens =
|
27 |
-
interpreter.max_tokens =
|
28 |
|
29 |
-
interpreter.llm.max_output =
|
30 |
-
interpreter.max_output =
|
31 |
|
32 |
interpreter.conversation_history = True
|
33 |
interpreter.debug_mode = True
|
|
|
23 |
interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
|
24 |
interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
|
25 |
|
26 |
+
interpreter.llm.max_tokens = 3000 # 1回のリクエストで処理するトークンの最大数
|
27 |
+
interpreter.max_tokens = 3000 # 1回のリクエストで処理するトークンの最大数
|
28 |
|
29 |
+
interpreter.llm.max_output = 10000 # 出力の最大トークン数
|
30 |
+
interpreter.max_output = 10000 # 出力の最大トークン数
|
31 |
|
32 |
interpreter.conversation_history = True
|
33 |
interpreter.debug_mode = True
|