kenken999 commited on
Commit
9b7e24a
1 Parent(s): 4eaff9f

change limite

Browse files
chat_history.db CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:693831206fd90abb67ca575c398a3d66139f1271c2ae85ace68e0bb62dd89c9e
3
- size 1773568
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:44dfe6ef4f80466f4a35ce6a782203f33b0e81021906887d67b5f78e2160574c
3
+ size 1777664
mysite/interpreter/interpreter_config.py CHANGED
@@ -23,11 +23,11 @@ interpreter.llm.model = "Llama3-70b-8192"
23
  interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
24
  interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
25
 
26
- interpreter.llm.max_tokens = 8192 # 1回のリクエストで処理するトークンの最大数
27
- interpreter.max_tokens = 8192 # 1回のリクエストで処理するトークンの最大数
28
 
29
- interpreter.llm.max_output = 20000 # 出力の最大トークン数
30
- interpreter.max_output = 20000 # 出力の最大トークン数
31
 
32
  interpreter.conversation_history = True
33
  interpreter.debug_mode = True
 
23
  interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
24
  interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
25
 
26
+ interpreter.llm.max_tokens = 3000 # 1回のリクエストで処理するトークンの最大数
27
+ interpreter.max_tokens = 3000 # 1回のリクエストで処理するトークンの最大数
28
 
29
+ interpreter.llm.max_output = 10000 # 出力の最大トークン数
30
+ interpreter.max_output = 10000 # 出力の最大トークン数
31
 
32
  interpreter.conversation_history = True
33
  interpreter.debug_mode = True