3v324v23 commited on
Commit
5d23420
1 Parent(s): 85e4339

多语言README

Browse files
README.md CHANGED
@@ -4,7 +4,7 @@
4
 
5
  **如果喜欢这个项目,请给它一个Star;如果你发明了更好用的快捷键或函数插件,欢迎发issue或者pull requests**
6
 
7
- If you like this project, please give it a Star. If you've come up with more useful academic shortcuts or functional plugins, feel free to open an issue or pull request. We also have a [README in English](img/README_EN.md) translated by this project itself.
8
 
9
  > **Note**
10
  >
 
4
 
5
  **如果喜欢这个项目,请给它一个Star;如果你发明了更好用的快捷键或函数插件,欢迎发issue或者pull requests**
6
 
7
+ If you like this project, please give it a Star. If you've come up with more useful academic shortcuts or functional plugins, feel free to open an issue or pull request. We also have a README in [English|](docs/README_EN.md)[Japanese|](docs/README_JP.md)[Russian|](docs/README_RS.md)[French](docs/README_FR.md) translated by this project itself.
8
 
9
  > **Note**
10
  >
crazy_functions/批量Markdown翻译.py CHANGED
@@ -50,7 +50,7 @@ def 多文件翻译(file_manifest, project_folder, llm_kwargs, plugin_kwargs, ch
50
  pfg.file_contents.append(file_content)
51
 
52
  # <-------- 拆分过长的Markdown文件 ---------->
53
- pfg.run_file_split(max_token_limit=2048)
54
  n_split = len(pfg.sp_file_contents)
55
 
56
  # <-------- 多线程润色开始 ---------->
 
50
  pfg.file_contents.append(file_content)
51
 
52
  # <-------- 拆分过长的Markdown文件 ---------->
53
+ pfg.run_file_split(max_token_limit=1500)
54
  n_split = len(pfg.sp_file_contents)
55
 
56
  # <-------- 多线程润色开始 ---------->
docs/README_EN.md CHANGED
@@ -1,223 +1,227 @@
1
- # ChatGPT Academic Optimization
2
  > **Note**
3
  >
4
- > This English readme is automatically generated by the markdown translation plugin in this project, and may not be 100% correct.
5
  >
6
 
 
7
 
8
- **If you like this project, please give it a star. If you have come up with more useful academic shortcuts or functional plugins, feel free to open an issue or pull request (to the `dev` branch).**
9
 
10
  > **Note**
11
  >
12
- > 1. Please note that only function plugins (buttons) marked in **red** support reading files, and some plugins are located in the **dropdown menu** in the plugin area. Additionally, we welcome and process PRs for any new plugins with the **highest priority**!
13
  >
14
- > 2. The functions of each file in this project are detailed in the self-translation report [self_analysis.md](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A). With the version iteration, you can click on a relevant function plugin at any time to call GPT to regenerate the self-analysis report for the project. Commonly asked questions are summarized in the [`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98).
15
- >
16
- > 3. If you are not used to the function, comments or interface with some Chinese names, you can click on the relevant function plugin at any time to call ChatGPT to generate the source code of the project in English.
17
 
18
  <div align="center">
19
 
20
  Function | Description
21
  --- | ---
22
- One-click refinement | Supports one-click refinement, one-click searching for grammatical errors in papers.
23
- One-click translation between Chinese and English | One-click translation between Chinese and English.
24
- One-click code interpretation | Can correctly display and interpret the code.
25
- [Custom shortcuts](https://www.bilibili.com/video/BV14s4y1E7jN) | Supports custom shortcuts.
26
- [Configure proxy server](https://www.bilibili.com/video/BV1rc411W7Dr) | Supports configuring proxy server.
27
- Modular design | Supports custom high-order experimental features and [function plug-ins], and plug-ins support [hot update](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97).
28
- [Self-program analysis](https://www.bilibili.com/video/BV1cj411A7VW) | [Function Plug-in] [One-Key Understanding](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A) the source code of this project.
29
- [Program analysis](https://www.bilibili.com/video/BV1cj411A7VW) | [Function Plug-in] One-click can analyze other Python/C/C++/Java/Golang/Lua/Rect project trees.
30
- Read papers | [Function Plug-in] One-click reads the full text of a latex paper and generates an abstract.
31
- Latex full-text translation/refinement | [Function Plug-in] One-click translates or refines a latex paper.
32
- Batch annotation generation | [Function Plug-in] One-click generates function annotations in batches.
33
- Chat analysis report generation | [Function Plug-in] Automatically generate summary reports after running.
34
- [Arxiv assistant](https://www.bilibili.com/video/BV1LM4y1279X) | [Function Plug-in] Enter the arxiv paper url and you can translate the abstract and download the PDF with one click.
35
- [PDF paper full-text translation function](https://www.bilibili.com/video/BV1KT411x7Wn) | [Function Plug-in] Extract title and abstract of PDF papers + translate full text (multi-threaded).
36
- [Google Scholar integration assistant](https://www.bilibili.com/video/BV19L411U7ia) (Version>=2.45) | [Function Plug-in] Given any Google Scholar search page URL, let GPT help you choose interesting articles.
37
- Formula display | Can simultaneously display the tex form and rendering form of formulas.
38
- Image display | Can display images in Markdown.
39
- Multithreaded function plug-in support | Supports multi-threaded calling of chatgpt, one-click processing of massive texts or programs.
40
- Support for markdown tables output by GPT | Can output markdown tables that support GPT.
41
- Start dark gradio theme [theme](https://github.com/binary-husky/chatgpt_academic/issues/173) | Add ```/?__dark-theme=true``` to the browser URL to switch to the dark theme.
42
- Huggingface free scientific online experience](https://huggingface.co/spaces/qingxu98/gpt-academic) | After logging in to Huggingface, copy [this space](https://huggingface.co/spaces/qingxu98/gpt-academic).
43
- [Mixed support for multiple LLM models](https://www.bilibili.com/video/BV1EM411K7VH/) ([v3.0 branch](https://github.com/binary-husky/chatgpt_academic/tree/v3.0) in testing) | It must feel great to be served by both ChatGPT and [Tsinghua ChatGLM](https://github.com/THUDM/ChatGLM-6B)!
44
- Compatible with [TGUI](https://github.com/oobabooga/text-generation-webui) to access more language models | Access to opt-1.3b, galactica-1.3b and other models ([v3.0 branch](https://github.com/binary-husky/chatgpt_academic/tree/v3.0) under testing).
45
- … | ...
46
 
47
  </div>
48
 
49
- <!-- - New interface (left: master branch, right: dev development frontier) -->
50
- - New interface (modify the `LAYOUT` option in `config.py` to switch between "left and right layout" and "up and down layout").
51
  <div align="center">
52
  <img src="https://user-images.githubusercontent.com/96192199/230361456-61078362-a966-4eb5-b49e-3c62ef18b860.gif" width="700" >
53
  </div>
54
 
55
- - All buttons are dynamically generated by reading `functional.py`, and custom functions can be added freely, freeing up the clipboard.
 
56
  <div align="center">
57
  <img src="https://user-images.githubusercontent.com/96192199/231975334-b4788e91-4887-412f-8b43-2b9c5f41d248.gif" width="700" >
58
  </div>
59
 
60
- - Refinement/Correction
61
  <div align="center">
62
  <img src="https://user-images.githubusercontent.com/96192199/231980294-f374bdcb-3309-4560-b424-38ef39f04ebd.gif" width="700" >
63
  </div>
64
 
65
- - Supports markdown tables output by GPT.
66
  <div align="center">
67
  <img src="https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png" width="700" >
68
  </div>
69
 
70
- - If the output contains formulas, both the tex form and the rendering form are displayed simultaneously for easy copying and reading.
71
  <div align="center">
72
- <img src="https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png" width="700" >
73
  </div>
74
 
75
- - Don't want to read project code? Let chatgpt boast about the whole project.
76
  <div align="center">
77
- <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="700" >
78
  </div>
79
 
80
- - Multiple large language models mixed calling. ([v3.0 branch](https://github.com/binary-husky/chatgpt_academic/tree/v3.0) in testing)
 
81
 
 
82
 
83
- ## Running Directly (Windows, Linux or MacOS)
84
 
85
- ### 1. Download the Project
86
  ```sh
87
  git clone https://github.com/binary-husky/chatgpt_academic.git
88
  cd chatgpt_academic
89
  ```
90
 
91
- ### 2. Configure API_KEY and Proxy Settings
92
 
93
- In `config.py`, configure the overseas Proxy and OpenAI API KEY, as follows:
 
94
  ```
95
- 1. If you are in China, you need to set an overseas proxy to use the OpenAI API smoothly. Please read the instructions in config.py carefully (1. Modify the USE_PROXY to True; 2. Modify the proxies according to the instructions).
96
- 2. Configure OpenAI API KEY. You need to register on the OpenAI official website and obtain an API KEY. Once you get the API KEY, configure it in the config.py file.
97
- 3. Issues related to proxy network (network timeout, proxy not working) are summarized to https://github.com/binary-husky/chatgpt_academic/issues/1
98
  ```
99
- (Note: When the program is running, it will first check whether there is a private configuration file named `config_private.py`, and use the configuration in it to overwrite the same name configuration in `config.py`. Therefore, if you can understand our configuration reading logic, we strongly recommend that you create a new configuration file next to `config.py` named `config_private.py` and transfer (copy) the configuration in `config.py` to `config_private.py`. `config_private.py` is not managed by Git, which can make your privacy information more secure.)
 
100
 
101
- ### 3. Install Dependencies
102
  ```sh
103
- # (Option 1) Recommended
104
  python -m pip install -r requirements.txt
105
 
106
- # (Option 2) If you use anaconda, the steps are also similar:
107
- # (Option 2.1) conda create -n gptac_venv python=3.11
108
- # (Option 2.2) conda activate gptac_venv
109
- # (Option 2.3) python -m pip install -r requirements.txt
110
 
111
- # Note: Use the official pip source or the Ali pip source. Other pip sources (such as some university pips) may have problems. Temporary substitution method:
112
  # python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
113
  ```
114
 
115
- ### 4. Run
 
 
 
 
 
116
  ```sh
117
  python main.py
118
  ```
119
 
120
- ### 5. Test Experimental Features
121
  ```
122
- - Test C++ Project Header Analysis
123
- In the input area, enter `./crazy_functions/test_project/cpp/libJPG` , and then click "[Experiment] Parse the entire C++ project (input inputs the root path of the project)"
124
- - Test Writing Abstracts for Latex Projects
125
- In the input area, enter `./crazy_functions/test_project/latex/attention` , and then click "[Experiment] Read the tex paper and write an abstract (input inputs the root path of the project)"
126
- - Test Python Project Analysis
127
- In the input area, enter `./crazy_functions/test_project/python/dqn` , and then click "[Experiment] Parse the entire py project (input inputs the root path of the project)"
128
- - Test Self-code Interpretation
129
- Click "[Experiment] Please analyze and deconstruct this project itself"
130
- - Test Experimental Function Template (asking GPT what happened in history today), you can implement more complex functions based on this template function
131
- Click "[Experiment] Experimental function template"
132
  ```
133
 
134
- ## Use Docker (Linux)
135
 
 
136
  ``` sh
137
- # Download Project
138
  git clone https://github.com/binary-husky/chatgpt_academic.git
139
  cd chatgpt_academic
140
- # Configure Overseas Proxy and OpenAI API KEY
141
- Configure config.py with any text editor
142
- # Installation
143
  docker build -t gpt-academic .
144
  # Run
145
  docker run --rm -it --net=host gpt-academic
146
 
147
- # Test Experimental Features
148
- ## Test Self-code Interpretation
149
- Click "[Experiment] Please analyze and deconstruct this project itself"
150
- ## Test Experimental Function Template (asking GPT what happened in history today), you can implement more complex functions based on this template function
151
- Click "[Experiment] Experimental function template"
152
- ## (Please note that when running in docker, you need to pay extra attention to file access rights issues of the program.)
153
- ## Test C++ Project Header Analysis
154
- In the input area, enter ./crazy_functions/test_project/cpp/libJPG , and then click "[Experiment] Parse the entire C++ project (input inputs the root path of the project)"
155
- ## Test Writing Abstracts for Latex Projects
156
- In the input area, enter ./crazy_functions/test_project/latex/attention , and then click "[Experiment] Read the tex paper and write an abstract (input inputs the root path of the project)"
157
  ## Test Python Project Analysis
158
- In the input area, enter ./crazy_functions/test_project/python/dqn , and then click "[Experiment] Parse the entire py project (input inputs the root path of the project)"
 
 
 
159
 
 
 
 
 
 
 
 
 
 
 
 
160
  ```
161
 
162
- ## Other Deployment Methods
163
- - Use WSL2 (Windows Subsystem for Linux subsystem)
164
- Please visit [Deploy Wiki-1] (https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BD%BF%E7%94%A8WSL2%EF%BC%88Windows-Subsystem-for-Linux-%E5%AD%90%E7%B3%BB%E7%BB%9F%EF%BC%89%E9%83%A8%E7%BD%B2)
165
 
166
- - nginx remote deployment
167
- Please visit [Deploy Wiki-2] (https://github.com/binary-husky/chatgpt_academic/wiki/%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E7%9A%84%E6%8C%87%E5%AF%BC)
 
 
 
 
 
 
168
 
 
 
 
169
 
170
- ## Customizing New Convenient Buttons (Academic Shortcut Key Customization)
171
- Open functional.py and add the entry as follows, and then restart the program. (If the button has been successfully added and is visible, both the prefix and suffix support hot modification and take effect without restarting the program.)
172
 
173
- For example,
 
 
 
174
  ```
175
- "Super English to Chinese Translation": {
 
 
176
 
177
- # Prefix, which will be added before your input. For example, it is used to describe your requirements, such as translation, code interpretation, polishing, etc.
178
- "Prefix": "Please translate the following content into Chinese, and then use a markdown table to explain each proprietary term in the text:\n\n",
179
-
180
- # Suffix, which will be added after your input. For example, in conjunction with the prefix, you can bracket your input in quotes.
181
  "Suffix": "",
182
-
183
  },
184
  ```
185
  <div align="center">
186
  <img src="https://user-images.githubusercontent.com/96192199/226899272-477c2134-ed71-4326-810c-29891fe4a508.png" width="500" >
187
  </div>
188
 
189
-
190
- If you invent a more user-friendly academic shortcut key, welcome to post an issue or pull request!
191
-
192
- ## Configure Proxy
193
- ### Method 1: General Method
194
- Modify the port and proxy software corresponding in ```config.py```
195
-
196
- <div align="center">
197
- <img src="https://user-images.githubusercontent.com/96192199/226571294-37a47cd9-4d40-4c16-97a2-d360845406f7.png" width="500" >
198
- <img src="https://user-images.githubusercontent.com/96192199/226838985-e5c95956-69c2-4c23-a4dd-cd7944eeb451.png" width="500" >
199
- </div>
200
 
201
 
202
- After configuring, you can use the following command to test whether the proxy works. If everything is normal, the code below will output the location of your proxy server:
203
 
204
- ```
205
- python check_proxy.py
206
- ```
207
-
208
- ### Method Two: Pure Beginner Tutorial
209
- [Pure Beginner Tutorial](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BB%A3%E7%90%86%E8%BD%AF%E4%BB%B6%E9%97%AE%E9%A2%98%E7%9A%84%E6%96%B0%E6%89%8B%E8%A7%A3%E5%86%B3%E6%96%B9%E6%B3%95%EF%BC%88%E6%96%B9%E6%B3%95%E5%8F%AA%E9%80%82%E7%94%A8%E4%BA%8E%E6%96%B0%E6%89%8B%EF%BC%89)
210
 
211
- ## Compatibility Testing
212
 
213
- ### Image Display:
214
 
215
  <div align="center">
216
  <img src="https://user-images.githubusercontent.com/96192199/228737599-bf0a9d9c-1808-4f43-ae15-dfcc7af0f295.png" width="800" >
217
  </div>
218
 
219
-
220
- ### If the program can read and analyze itself:
221
 
222
  <div align="center">
223
  <img src="https://user-images.githubusercontent.com/96192199/226936850-c77d7183-0749-4c1c-9875-fd4891842d0c.png" width="800" >
@@ -227,7 +231,7 @@ python check_proxy.py
227
  <img src="https://user-images.githubusercontent.com/96192199/226936618-9b487e4b-ab5b-4b6e-84c6-16942102e917.png" width="800" >
228
  </div>
229
 
230
- ### Any other Python/Cpp project analysis:
231
  <div align="center">
232
  <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="800" >
233
  </div>
@@ -236,59 +240,52 @@ python check_proxy.py
236
  <img src="https://user-images.githubusercontent.com/96192199/226969067-968a27c1-1b9c-486b-8b81-ab2de8d3f88a.png" width="800" >
237
  </div>
238
 
239
- ### Latex paper reading comprehension and abstract generation with one click
240
  <div align="center">
241
  <img src="https://user-images.githubusercontent.com/96192199/227504406-86ab97cd-f208-41c3-8e4a-7000e51cf980.png" width="800" >
242
  </div>
243
 
244
- ### Automatic Report Generation
245
  <div align="center">
246
  <img src="https://user-images.githubusercontent.com/96192199/227503770-fe29ce2c-53fd-47b0-b0ff-93805f0c2ff4.png" height="300" >
247
  <img src="https://user-images.githubusercontent.com/96192199/227504617-7a497bb3-0a2a-4b50-9a8a-95ae60ea7afd.png" height="300" >
248
  <img src="https://user-images.githubusercontent.com/96192199/227504005-efeaefe0-b687-49d0-bf95-2d7b7e66c348.png" height="300" >
249
  </div>
250
 
251
- ### Modular Function Design
252
  <div align="center">
253
  <img src="https://user-images.githubusercontent.com/96192199/229288270-093643c1-0018-487a-81e6-1d7809b6e90f.png" height="400" >
254
  <img src="https://user-images.githubusercontent.com/96192199/227504931-19955f78-45cd-4d1c-adac-e71e50957915.png" height="400" >
255
  </div>
256
 
257
-
258
- ### Translating source code to English
259
 
260
  <div align="center">
261
  <img src="https://user-images.githubusercontent.com/96192199/229720562-fe6c3508-6142-4635-a83d-21eb3669baee.png" height="400" >
262
  </div>
263
 
264
- ## Todo and Version Planning:
265
-
266
- - version 3 (Todo):
267
- - - Support for gpt4 and other llm
268
- - version 2.4+ (Todo):
269
- - - Summary of long text and token overflow problems in large project source code
270
- - - Implementation of project packaging and deployment
271
- - - Function plugin parameter interface optimization
272
- - - Self-updating
273
- - version 2.4: (1) Added PDF full-text translation function; (2) Added input area switching function; (3) Added vertical layout option; (4) Optimized multi-threaded function plugin.
274
  - version 2.3: Enhanced multi-threaded interactivity
275
- - version 2.2: Function plug-in supports hot reloading
276
- - version 2.1: Collapsible layout
277
  - version 2.0: Introduction of modular function plugins
278
  - version 1.0: Basic functions
279
 
280
- ## References and Learning
281
-
282
 
283
  ```
284
- The code refers to the design of many other excellent projects, mainly including:
285
 
286
- # Reference Project 1: Referenced the method of reading OpenAI json, recording historical inquiry records, and using gradio queue in ChuanhuChatGPT
287
  https://github.com/GaiZhenbiao/ChuanhuChatGPT
288
 
289
- # Reference Project 2:
290
  https://github.com/THUDM/ChatGLM-6B
291
-
292
  ```
293
 
294
-
 
 
1
  > **Note**
2
  >
3
+ > This English README is automatically generated by the markdown translation plugin in this project, and may not be 100% correct.
4
  >
5
 
6
+ # <img src="logo.png" width="40" > ChatGPT Academic Optimization
7
 
8
+ **If you like this project, please give it a Star. If you've come up with more useful academic shortcuts or functional plugins, feel free to open an issue or pull request. We also have a [README in English](docs/README_EN.md) translated by this project itself.**
9
 
10
  > **Note**
11
  >
12
+ > 1. Please note that only **functions with red color** supports reading files, some functions are located in the **dropdown menu** of plugins. Additionally, we welcome and prioritize any new plugin PRs with **highest priority**!
13
  >
14
+ > 2. The functionality of each file in this project is detailed in the self-translation report [`self_analysis.md`](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A) of the project. With the iteration of the version, you can also click on the relevant function plugins at any time to call GPT to regenerate the self-analysis report of the project. The FAQ summary is in the [`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98) section.
15
+ >
16
+
17
 
18
  <div align="center">
19
 
20
  Function | Description
21
  --- | ---
22
+ One-Click Polish | Supports one-click polishing and finding grammar errors in academic papers.
23
+ One-Key Translation Between Chinese and English | One-click translation between Chinese and English.
24
+ One-Key Code Interpretation | Can correctly display and interpret code.
25
+ [Custom Shortcut Keys](https://www.bilibili.com/video/BV14s4y1E7jN) | Supports custom shortcut keys.
26
+ [Configure Proxy Server](https://www.bilibili.com/video/BV1rc411W7Dr) | Supports configuring proxy servers.
27
+ Modular Design | Supports custom high-order function plugins and [function plugins], and plugins support [hot updates](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97).
28
+ [Self-programming Analysis](https://www.bilibili.com/video/BV1cj411A7VW) | [Function Plugin] [One-Key Read] (https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A) The source code of this project is analyzed.
29
+ [Program Analysis](https://www.bilibili.com/video/BV1cj411A7VW) | [Function Plugin] One-click can analyze the project tree of other Python/C/C++/Java/Lua/... projects
30
+ Read the Paper | [Function Plugin] One-click interpretation of the full text of latex paper and generation of abstracts
31
+ Latex Full Text Translation, Proofreading | [Function Plugin] One-click translation or proofreading of latex papers.
32
+ Batch Comment Generation | [Function Plugin] One-click batch generation of function comments
33
+ Chat Analysis Report Generation | [Function Plugin] After running, an automatic summary report will be generated
34
+ [Arxiv Assistant](https://www.bilibili.com/video/BV1LM4y1279X) | [Function Plugin] Enter the arxiv article url to translate the abstract and download the PDF with one click
35
+ [Full-text Translation Function of PDF Paper](https://www.bilibili.com/video/BV1KT411x7Wn) | [Function Plugin] Extract the title & abstract of the PDF paper + translate the full text (multithreading)
36
+ [Google Scholar Integration Assistant](https://www.bilibili.com/video/BV19L411U7ia) | [Function Plugin] Given any Google Scholar search page URL, let gpt help you choose interesting articles.
37
+ Formula / Picture / Table Display | Can display both the tex form and the rendering form of formulas at the same time, support formula and code highlighting
38
+ Multithreaded Function Plugin Support | Supports multi-threaded calling chatgpt, one-click processing of massive text or programs
39
+ Start Dark Gradio [Theme](https://github.com/binary-husky/chatgpt_academic/issues/173) | Add ```/?__dark-theme=true``` at the end of the browser url to switch to dark theme
40
+ [Multiple LLM Models](https://www.bilibili.com/video/BV1wT411p7yf) support, [API2D](https://api2d.com/) interface support | It must feel nice to be served by both GPT3.5, GPT4, and [Tsinghua ChatGLM](https://github.com/THUDM/ChatGLM-6B)!
41
+ Huggingface non-Science Net [Online Experience](https://huggingface.co/spaces/qingxu98/gpt-academic) | After logging in to huggingface, copy [this space](https://huggingface.co/spaces/qingxu98/gpt-academic)
42
+ ... | ...
 
 
 
43
 
44
  </div>
45
 
46
+
47
+ - New interface (switch between "left-right layout" and "up-down layout" by modifying the LAYOUT option in config.py)
48
  <div align="center">
49
  <img src="https://user-images.githubusercontent.com/96192199/230361456-61078362-a966-4eb5-b49e-3c62ef18b860.gif" width="700" >
50
  </div>
51
 
52
+
53
+ - All buttons are dynamically generated by reading functional.py and can add custom functionality at will, freeing up clipboard
54
  <div align="center">
55
  <img src="https://user-images.githubusercontent.com/96192199/231975334-b4788e91-4887-412f-8b43-2b9c5f41d248.gif" width="700" >
56
  </div>
57
 
58
+ - Proofreading / correcting
59
  <div align="center">
60
  <img src="https://user-images.githubusercontent.com/96192199/231980294-f374bdcb-3309-4560-b424-38ef39f04ebd.gif" width="700" >
61
  </div>
62
 
63
+ - If the output contains formulas, it will be displayed in both the tex form and the rendering form at the same time, which is convenient for copying and reading
64
  <div align="center">
65
  <img src="https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png" width="700" >
66
  </div>
67
 
68
+ - Don't want to read the project code? Just take the whole project to chatgpt
69
  <div align="center">
70
+ <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="700" >
71
  </div>
72
 
73
+ - Multiple major language model mixing calls (ChatGLM + OpenAI-GPT3.5 + [API2D](https://api2d.com/)-GPT4)
74
  <div align="center">
75
+ <img src="https://user-images.githubusercontent.com/96192199/232537274-deca0563-7aa6-4b5d-94a2-b7c453c47794.png" width="700" >
76
  </div>
77
 
78
+ Multiple major language model mixing call [huggingface beta version](https://huggingface.co/spaces/qingxu98/academic-chatgpt-beta) (the huggingface version does not support chatglm)
79
+
80
 
81
+ ---
82
 
83
+ ## Installation-Method 1: Run directly (Windows, Linux or MacOS)
84
 
85
+ 1. Download project
86
  ```sh
87
  git clone https://github.com/binary-husky/chatgpt_academic.git
88
  cd chatgpt_academic
89
  ```
90
 
91
+ 2. Configure API_KEY and proxy settings
92
 
93
+
94
+ In `config.py`, configure the overseas Proxy and OpenAI API KEY as follows:
95
  ```
96
+ 1. If you are in China, you need to set up an overseas proxy to use the OpenAI API smoothly. Please read config.py carefully for setup details (1. Modify USE_PROXY to True; 2. Modify proxies according to the instructions).
97
+ 2. Configure the OpenAI API KEY. You need to register and obtain an API KEY on the OpenAI website. Once you get the API KEY, you can configure it in the config.py file.
98
+ 3. Issues related to proxy networks (network timeouts, proxy failures) are summarized at https://github.com/binary-husky/chatgpt_academic/issues/1
99
  ```
100
+ (P.S. When the program runs, it will first check whether there is a private configuration file named `config_private.py` and use the same-name configuration in `config.py` to overwrite it. Therefore, if you can understand our configuration reading logic, we strongly recommend that you create a new configuration file named `config_private.py` next to `config.py` and transfer (copy) the configuration in `config.py` to` config_private.py`. `config_private.py` is not controlled by git and can make your privacy information more secure.))
101
+
102
 
103
+ 3. Install dependencies
104
  ```sh
105
+ # (Option One) Recommended
106
  python -m pip install -r requirements.txt
107
 
108
+ # (Option Two) If you use anaconda, the steps are similar:
109
+ # (Option Two.1) conda create -n gptac_venv python=3.11
110
+ # (Option Two.2) conda activate gptac_venv
111
+ # (Option Two.3) python -m pip install -r requirements.txt
112
 
113
+ # Note: Use official pip source or Ali pip source. Other pip sources (such as some university pips) may have problems, and temporary replacement methods are as follows:
114
  # python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
115
  ```
116
 
117
+ If you need to support Tsinghua ChatGLM, you need to install more dependencies (if you are not familiar with python or your computer configuration is not good, we recommend not to try):
118
+ ```sh
119
+ python -m pip install -r request_llm/requirements_chatglm.txt
120
+ ```
121
+
122
+ 4. Run
123
  ```sh
124
  python main.py
125
  ```
126
 
127
+ 5. Test function plugins
128
  ```
129
+ - Test Python project analysis
130
+ In the input area, enter `./crazy_functions/test_project/python/dqn`, and then click "Analyze the entire Python project"
131
+ - Test self-code interpretation
132
+ Click "[Multithreading Demo] Interpretation of This Project Itself (Source Code Interpretation)"
133
+ - Test experimental function template function (requires gpt to answer what happened today in history). You can use this function as a template to implement more complex functions.
134
+ Click "[Function Plugin Template Demo] Today in History"
135
+ - There are more functions to choose from in the function plugin area drop-down menu.
 
 
 
136
  ```
137
 
138
+ ## Installation-Method 2: Use Docker (Linux)
139
 
140
+ 1. ChatGPT only (recommended for most people)
141
  ``` sh
142
+ # download project
143
  git clone https://github.com/binary-husky/chatgpt_academic.git
144
  cd chatgpt_academic
145
+ # configure overseas Proxy and OpenAI API KEY
146
+ Edit config.py with any text editor
147
+ # Install
148
  docker build -t gpt-academic .
149
  # Run
150
  docker run --rm -it --net=host gpt-academic
151
 
152
+ # Test function plug-in
153
+ ## Test function plugin template function (requires gpt to answer what happened today in history). You can use this function as a template to implement more complex functions.
154
+ Click "[Function Plugin Template Demo] Today in History"
155
+ ## Test Abstract Writing for Latex Projects
156
+ Enter ./crazy_functions/test_project/latex/attention in the input area, and then click "Read Tex Paper and Write Abstract"
 
 
 
 
 
157
  ## Test Python Project Analysis
158
+ Enter ./crazy_functions/test_project/python/dqn in the input area and click "Analyze the entire Python project."
159
+
160
+ More functions are available in the function plugin area drop-down menu.
161
+ ```
162
 
163
+ 2. ChatGPT+ChatGLM (requires strong familiarity with docker + strong computer configuration)
164
+
165
+ ``` sh
166
+ # Modify dockerfile
167
+ cd docs && nano Dockerfile+ChatGLM
168
+ # How to build | 如何构建 (Dockerfile+ChatGLM在docs路径下,请先cd docs)
169
+ docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
170
+ # How to run | 如何运行 (1) 直接运行:
171
+ docker run --rm -it --net=host --gpus=all gpt-academic
172
+ # How to run | 如何运行 (2) 我想运行之前进容器做一些调整:
173
+ docker run --rm -it --net=host --gpus=all gpt-academic bash
174
  ```
175
 
 
 
 
176
 
177
+ ## Installation-Method 3: Other Deployment Methods
178
+
179
+ 1. Remote Cloud Server Deployment
180
+ Please visit [Deployment Wiki-1] (https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)
181
+
182
+ 2. Use WSL2 (Windows Subsystem for Linux)
183
+ Please visit [Deployment Wiki-2](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BD%BF%E7%94%A8WSL2%EF%BC%88Windows-Subsystem-for-Linux-%E5%AD%90%E7%B3%BB%E7%BB%9F%EF%BC%89%E9%83%A8%E7%BD%B2)
184
+
185
 
186
+ ## Installation-Proxy Configuration
187
+ ### Method 1: Conventional method
188
+ [Configure Proxy](https://github.com/binary-husky/chatgpt_academic/issues/1)
189
 
190
+ ### Method Two: Step-by-step tutorial for newcomers
191
+ [Step-by-step tutorial for newcomers](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BB%A3%E7%90%86%E8%BD%AF%E4%BB%B6%E9%97%AE%E9%A2%98%E7%9A%84%E6%96%B0%E6%89%8B%E8%A7%A3%E5%86%B3%E6%96%B9%E6%B3%95%EF%BC%88%E6%96%B9%E6%B3%95%E5%8F%AA%E9%80%82%E7%94%A8%E4%BA%8E%E6%96%B0%E6%89%8B%EF%BC%89)
192
 
193
+ ---
194
+
195
+ ## Customizing Convenient Buttons (Customizing Academic Shortcuts)
196
+ Open `core_functional.py` with any text editor and add an item as follows, then restart the program (if the button has been successfully added and visible, both the prefix and suffix support hot modification without the need to restart the program to take effect). For example:
197
  ```
198
+ "Super English to Chinese translation": {
199
+ # Prefix, which will be added before your input. For example, to describe your requirements, such as translation, code interpretation, polishing, etc.
200
+ "Prefix": "Please translate the following content into Chinese and use a markdown table to interpret the proprietary terms in the text one by one:\n\n",
201
 
202
+ # Suffix, which will be added after your input. For example, combined with the prefix, you can put your input content in quotes.
 
 
 
203
  "Suffix": "",
 
204
  },
205
  ```
206
  <div align="center">
207
  <img src="https://user-images.githubusercontent.com/96192199/226899272-477c2134-ed71-4326-810c-29891fe4a508.png" width="500" >
208
  </div>
209
 
210
+ ---
 
 
 
 
 
 
 
 
 
 
211
 
212
 
213
+ ## Some Function Displays
214
 
215
+ ### Image Display:
 
 
 
 
 
216
 
 
217
 
218
+ You are a professional academic paper translator.
219
 
220
  <div align="center">
221
  <img src="https://user-images.githubusercontent.com/96192199/228737599-bf0a9d9c-1808-4f43-ae15-dfcc7af0f295.png" width="800" >
222
  </div>
223
 
224
+ ### If a program can understand and analyze itself:
 
225
 
226
  <div align="center">
227
  <img src="https://user-images.githubusercontent.com/96192199/226936850-c77d7183-0749-4c1c-9875-fd4891842d0c.png" width="800" >
 
231
  <img src="https://user-images.githubusercontent.com/96192199/226936618-9b487e4b-ab5b-4b6e-84c6-16942102e917.png" width="800" >
232
  </div>
233
 
234
+ ### Analysis of any Python/Cpp project:
235
  <div align="center">
236
  <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="800" >
237
  </div>
 
240
  <img src="https://user-images.githubusercontent.com/96192199/226969067-968a27c1-1b9c-486b-8b81-ab2de8d3f88a.png" width="800" >
241
  </div>
242
 
243
+ ### One-click reading comprehension and summary generation of Latex papers
244
  <div align="center">
245
  <img src="https://user-images.githubusercontent.com/96192199/227504406-86ab97cd-f208-41c3-8e4a-7000e51cf980.png" width="800" >
246
  </div>
247
 
248
+ ### Automatic report generation
249
  <div align="center">
250
  <img src="https://user-images.githubusercontent.com/96192199/227503770-fe29ce2c-53fd-47b0-b0ff-93805f0c2ff4.png" height="300" >
251
  <img src="https://user-images.githubusercontent.com/96192199/227504617-7a497bb3-0a2a-4b50-9a8a-95ae60ea7afd.png" height="300" >
252
  <img src="https://user-images.githubusercontent.com/96192199/227504005-efeaefe0-b687-49d0-bf95-2d7b7e66c348.png" height="300" >
253
  </div>
254
 
255
+ ### Modular functional design
256
  <div align="center">
257
  <img src="https://user-images.githubusercontent.com/96192199/229288270-093643c1-0018-487a-81e6-1d7809b6e90f.png" height="400" >
258
  <img src="https://user-images.githubusercontent.com/96192199/227504931-19955f78-45cd-4d1c-adac-e71e50957915.png" height="400" >
259
  </div>
260
 
261
+ ### Source code translation to English
 
262
 
263
  <div align="center">
264
  <img src="https://user-images.githubusercontent.com/96192199/229720562-fe6c3508-6142-4635-a83d-21eb3669baee.png" height="400" >
265
  </div>
266
 
267
+ ## Todo and version planning:
268
+ - version 3.2+ (todo): Function plugin supports more parameter interfaces
269
+ - version 3.1: Support for inquiring multiple GPT models at the same time! Support for api2d, support for multiple apikeys load balancing
270
+ - version 3.0: Support for chatglm and other small llms
271
+ - version 2.6: Refactored the plugin structure, improved interactivity, added more plugins
272
+ - version 2.5: Self-updating, solves the problem of text being too long and token overflowing when summarizing large project source code
273
+ - version 2.4: (1) Added PDF full text translation function; (2) Added function to switch input area position; (3) Added vertical layout option; (4) Multi-threaded function plugin optimization.
 
 
 
274
  - version 2.3: Enhanced multi-threaded interactivity
275
+ - version 2.2: Function plugin supports hot reloading
276
+ - version 2.1: Foldable layout
277
  - version 2.0: Introduction of modular function plugins
278
  - version 1.0: Basic functions
279
 
280
+ ## Reference and learning
 
281
 
282
  ```
283
+ The code design of this project has referenced many other excellent projects, including:
284
 
285
+ # Reference project 1: Borrowed many tips from ChuanhuChatGPT
286
  https://github.com/GaiZhenbiao/ChuanhuChatGPT
287
 
288
+ # Reference project 2: Tsinghua ChatGLM-6B:
289
  https://github.com/THUDM/ChatGLM-6B
 
290
  ```
291
 
 
docs/README_FR.md ADDED
@@ -0,0 +1,296 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ > **Note**
2
+ >
3
+ > Ce fichier README est généré automatiquement par le plugin de traduction markdown de ce projet et n'est peut - être pas correct à 100%.
4
+ >
5
+
6
+ # <img src="logo.png" width="40" > ChatGPT Optimisation Académique
7
+
8
+ **Si vous aimez ce projet, donnez-lui une étoile; si vous avez inventé des raccourcis académiques plus utiles ou des plugins fonctionnels, n'hésitez pas à ouvrir une demande ou une demande de traction. Nous avons également un fichier README en [anglais|](docs/README_EN.md)[japonais|](docs/README_JP.md)[russe|](docs/README_RS.md)[français](docs/README_FR.md) traduit par ce projet lui-même.**
9
+
10
+ > **Note**
11
+ >
12
+ > 1. Veuillez noter que seuls les plugins de fonction signalés en **rouge** sont capables de lire les fichiers, certains plugins se trouvent dans le **menu déroulant** de la section plugin. Nous sommes également les bienvenus avec la plus haute priorité pour traiter et accepter tout nouveau PR de plugin!
13
+ >
14
+ > 2. Chaque fichier dans ce projet est expliqué en détail dans l'auto-analyse [self_analysis.md](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A). Avec l'itération des versions, vous pouvez également cliquer sur les plugins fonctionnels pertinents pour appeler GPT et générer un rapport d'auto-analyse projet mis à jour. Les questions fréquemment posées sont résumées dans le [wiki](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98).
15
+ >
16
+
17
+ <div align="center">
18
+
19
+ Fonctionnalité | Description
20
+ --- | ---
21
+ Polissage en un clic | Prend en charge la correction en un clic et la recherche d'erreurs de syntaxe dans les documents de recherche.
22
+ Traduction Chinois-Anglais en un clic | Une touche pour traduire la partie chinoise en anglais ou celle anglaise en chinois.
23
+ Explication de code en un clic | Affiche et explique correctement le code.
24
+ [Raccourcis clavier personnalisables](https://www.bilibili.com/video/BV14s4y1E7jN) | Prend en charge les raccourcis clavier personnalisables.
25
+ [Configuration du serveur proxy](https://www.bilibili.com/video/BV1rc411W7Dr) | Prend en charge la configuration du serveur proxy.
26
+ Conception modulaire | Prend en charge la personnalisation des plugins de fonctions et des [plugins] de fonctions hiérarchiques personnalisés, et les plugins prennent en charge [la mise à jour à chaud](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97).
27
+ [Auto-analyse du programme](https://www.bilibili.com/video/BV1cj411A7VW) | [Plugins] [Lire en un clic](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A) le code source de ce projet.
28
+ [Analyse de programme](https://www.bilibili.com/video/BV1cj411A7VW) | [Plugins] En un clic, les projets Python/C/C++/Java/Lua/... peuvent être analysés.
29
+ Lire le document de recherche | [Plugins] Lisez le résumé de l'article en latex et générer un résumé.
30
+ Traduction et polissage de l'article complet en LaTeX | [Plugins] Une touche pour traduire ou corriger en LaTeX
31
+ Génération Commentaire de fonction en vrac | [Plugins] Lisez en un clic les fonctions et générez des commentaires de fonction.
32
+ Rapport d'analyse automatique des chats générés | [Plugins] Génère un rapport de synthèse après l'exécution.
33
+ [Assistant arxiv](https://www.bilibili.com/video/BV1LM4y1279X) | [Plugins] Entrez l'url de l'article arxiv pour traduire le résumé + télécharger le PDF en un clic
34
+ [Traduction complète des articles PDF](https://www.bilibili.com/video/BV1KT411x7Wn) | [Plugins] Extraire le titre et le résumé de l'article PDF + Traduire le texte entier (multithread)
35
+ [Aide à la recherche Google Academ](https://www.bilibili.com/video/BV19L411U7ia) | [Plugins] Donnez à GPT l'URL de n'importe quelle page de recherche Google Academ pour vous aider à sélectionner des articles intéressants
36
+ Affichage de formules/images/tableaux | Afficher la forme traduite et rendue d'une formule en même temps, plusieurs formules et surlignage du code prend en charge
37
+ Prise en charge des plugins multithread | Prise en charge de l'appel multithread de chatgpt, traitement en masse de texte ou de programmes en un clic
38
+ Activer le thème Gradio sombre [theme](https://github.com/binary-husky/chatgpt_academic/issues/173) au démarrage | Ajoutez ```/?__dark-theme=true``` à l'URL du navigateur pour basculer vers le thème sombre
39
+ [Prise en charge de plusieurs modèles LLM](https://www.bilibili.com/video/BV1wT411p7yf), [prise en charge de l'interface API2D](https://api2d.com/) | Comment cela serait-il de se faire servir par GPT3.5, GPT4 et la [ChatGLM de Tsinghua](https://github.com/THUDM/ChatGLM-6B) en même temps?
40
+ Expérience en ligne d'huggingface sans science | Après vous être connecté à huggingface, copiez [cet espace](https://huggingface.co/spaces/qingxu98/gpt-academic)
41
+ ... | ...
42
+
43
+ </div>
44
+
45
+
46
+ Vous êtes un traducteur professionnel d'articles universitaires en français.
47
+
48
+ Ceci est un fichier Markdown, veuillez le traduire en français sans modifier les commandes Markdown existantes :
49
+
50
+ - Nouvelle interface (modifiable en modifiant l'option de mise en page dans config.py pour basculer entre les mises en page gauche-droite et haut-bas)
51
+ <div align="center">
52
+ <img src="https://user-images.githubusercontent.com/96192199/230361456-61078362-a966-4eb5-b49e-3c62ef18b860.gif" width="700" >
53
+ </div>
54
+
55
+
56
+ - Tous les boutons sont générés dynamiquement en lisant functional.py, les utilisateurs peuvent ajouter librement des fonctions personnalisées pour libérer le presse-papiers.
57
+ <div align="center">
58
+ <img src="https://user-images.githubusercontent.com/96192199/231975334-b4788e91-4887-412f-8b43-2b9c5f41d248.gif" width="700" >
59
+ </div>
60
+
61
+ - Correction/amélioration
62
+ <div align="center">
63
+ <img src="https://user-images.githubusercontent.com/96192199/231980294-f374bdcb-3309-4560-b424-38ef39f04ebd.gif" width="700" >
64
+ </div>
65
+
66
+ - Si la sortie contient des formules, elles seront affichées simultanément sous forme de de texte brut et de forme rendue pour faciliter la copie et la lecture.
67
+ <div align="center">
68
+ <img src="https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png" width="700" >
69
+ </div>
70
+
71
+ - Pas envie de lire le code du projet ? Faites votre propre démo avec ChatGPT.
72
+ <div align="center">
73
+ <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="700" >
74
+ </div>
75
+
76
+ - Utilisation combinée de plusieurs modèles de langage sophistiqués (ChatGLM + OpenAI-GPT3.5 + [API2D](https://api2d.com/)-GPT4)
77
+ <div align="center">
78
+ <img src="https://user-images.githubusercontent.com/96192199/232537274-deca0563-7aa6-4b5d-94a2-b7c453c47794.png" width="700" >
79
+ </div>
80
+
81
+ Utilisation combinée de plusieurs modèles de langage sophistiqués en version de test [huggingface](https://huggingface.co/spaces/qingxu98/academic-chatgpt-beta) (la version huggingface ne prend pas en charge Chatglm).
82
+
83
+
84
+ ---
85
+
86
+ ## Installation - Méthode 1 : Exécution directe (Windows, Linux or MacOS)
87
+
88
+ 1. Téléchargez le projet
89
+ ```sh
90
+ git clone https://github.com/binary-husky/chatgpt_academic.git
91
+ cd chatgpt_academic
92
+ ```
93
+
94
+ 2. Configuration de l'API_KEY et des paramètres de proxy
95
+
96
+ Dans `config.py`, configurez les paramètres de proxy et de clé d'API OpenAI, comme indiqué ci-dessous
97
+ ```
98
+ 1. Si vous êtes en Chine, vous devez configurer un proxy étranger pour utiliser l'API OpenAI en toute transparence. Pour ce faire, veuillez lire attentivement le fichier config.py (1. Modifiez l'option USE_PROXY ; 2. Modifiez les paramètres de proxies comme indiqué dans les instructions).
99
+ 2. Configurez votre clé API OpenAI. Vous devez vous inscrire sur le site web d'OpenAI pour obtenir une clé API. Une fois que vous avez votre clé API, vous pouvez la configurer dans le fichier config.py.
100
+ 3. Tous les problèmes liés aux réseaux de proxy (temps d'attente, non-fonctionnement des proxies) sont résumés dans https://github.com/binary-husky/chatgpt_academic/issues/1.
101
+ ```
102
+ (Remarque : le programme vérifie d'abord s'il existe un fichier de configuration privé nommé `config_private.py`, et utilise les configurations de celui-ci à la place de celles du fichier `config.py`. Par conséquent, si vous comprenez notre logique de lecture de configuration, nous vous recommandons fortement de créer un nouveau fichier de configuration nommé `config_private.py` à côté de `config.py` et de transférer (copier) les configurations de celui-ci dans `config_private.py`. `config_private.py` n'est pas contrôlé par git et rend vos informations personnelles plus sûres.)
103
+
104
+ 3. Installation des dépendances
105
+ ```sh
106
+ # (Option 1) Recommandé
107
+ python -m pip install -r requirements.txt
108
+
109
+ # (Option 2) Si vous utilisez anaconda, les étapes sont similaires :
110
+ # (Option 2.1) conda create -n gptac_venv python=3.11
111
+ # (Option 2.2) conda activate gptac_venv
112
+ # (Option 2.3) python -m pip install -r requirements.txt
113
+
114
+ # note : Utilisez la source pip officielle ou la source pip Alibaba. D'autres sources (comme celles des universités) pourraient poser problème. Pour utiliser temporairement une autre source, utilisez :
115
+ # python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
116
+ ```
117
+
118
+ Si vous avez besoin de soutenir ChatGLM de Tsinghua, vous devez installer plus de dépendances (si vous n'êtes pas familier avec Python ou que votre ordinateur n'est pas assez performant, nous vous recommandons de ne pas essayer) :
119
+ ```sh
120
+ python -m pip install -r request_llm/requirements_chatglm.txt
121
+ ```
122
+
123
+ 4. Exécution
124
+ ```sh
125
+ python main.py
126
+ ```
127
+
128
+ 5. Tester les plugins de fonctions
129
+ ```
130
+ - Test Python Project Analysis
131
+ Dans la zone de saisie, entrez `./crazy_functions/test_project/python/dqn`, puis cliquez sur "Parse Entire Python Project"
132
+ - Test d'auto-lecture du code
133
+ Cliquez sur "[Démo multi-thread] Parser ce projet lui-même (auto-traduction de la source)"
134
+ - Test du modèle de fonctionnalité expérimentale (exige une réponse de l'IA à ce qui est arrivé aujourd'hui dans l'histoire). Vous pouvez utiliser cette fonctionnalité comme modèle pour des fonctions plus complexes.
135
+ Cliquez sur "[Démo modèle de plugin de fonction] Histoire du Jour"
136
+ - Le menu déroulant de la zone de plugin de fonctionnalité contient plus de fonctionnalités à sélectionner.
137
+ ```
138
+
139
+ ## Installation - Méthode 2 : Utilisation de docker (Linux)
140
+
141
+
142
+ Vous êtes un traducteur professionnel d'articles académiques en français.
143
+
144
+ 1. ChatGPT seul (recommandé pour la plupart des gens)
145
+ ``` sh
146
+ # Télécharger le projet
147
+ git clone https://github.com/binary-husky/chatgpt_academic.git
148
+ cd chatgpt_academic
149
+ # Configurer le proxy outre-mer et la clé API OpenAI
150
+ Modifier le fichier config.py avec n'importe quel éditeur de texte
151
+ # Installer
152
+ docker build -t gpt-academic .
153
+ # Exécuter
154
+ docker run --rm -it --net=host gpt-academic
155
+
156
+ # Tester les modules de fonction
157
+ ## Tester la fonction modèle des modules (requiert la réponse de GPT à "qu'est-ce qui s'est passé dans l'histoire aujourd'hui ?"), vous pouvez utiliser cette fonction en tant que modèle pour implémenter des fonctions plus complexes.
158
+ Cliquez sur "[Exemple de modèle de module] Histoire d'aujourd'hui"
159
+ ## Tester le résumé écrit pour le projet LaTeX
160
+ Dans la zone de saisie, tapez ./crazy_functions/test_project/latex/attention, puis cliquez sur "Lire le résumé de l'article de recherche LaTeX"
161
+ ## Tester l'analyse du projet Python
162
+ Dans la zone de saisie, tapez ./crazy_functions/test_project/python/dqn, puis cliquez sur "Analyser l'ensemble du projet Python"
163
+
164
+ D'autres fonctions sont disponibles dans la liste déroulante des modules de fonction.
165
+ ```
166
+
167
+ 2. ChatGPT+ChatGLM (nécessite une grande connaissance de docker et une configuration informatique suffisamment puissante)
168
+ ``` sh
169
+ # Modifier le dockerfile
170
+ cd docs && nano Dockerfile+ChatGLM
171
+ # Comment construire | 如何构建 (Dockerfile+ChatGLM在docs路径下,请先cd docs)
172
+ docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
173
+ # Comment exécuter | 如何运行 (1) Directement exécuter :
174
+ docker run --rm -it --net=host --gpus=all gpt-academic
175
+ # Comment exécuter | 如何运行 (2) Je veux effectuer quelques ajustements dans le conteneur avant de lancer :
176
+ docker run --rm -it --net=host --gpus=all gpt-academic bash
177
+ ```
178
+
179
+ ## Installation - Méthode 3 : Autres méthodes de déploiement
180
+
181
+ 1. Déploiement sur un cloud serveur distant
182
+ Veuillez consulter le [wiki de déploiement-1](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)
183
+
184
+ 2. Utilisation de WSL2 (Windows Subsystem for Linux)
185
+ Veuillez consulter le [wiki de déploiement-2](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BD%BF%E7%94%A8WSL2%EF%BC%88Windows-Subsystem-for-Linux-%E5%AD%90%E7%B3%BB%E7%BB%9F%EF%BC%89%E9%83%A8%E7%BD%B2)
186
+
187
+
188
+ ## Configuration de la procuration de l'installation
189
+ ### Méthode 1 : Méthode conventionnelle
190
+ [Configuration de la procuration](https://github.com/binary-husky/chatgpt_academic/issues/1)
191
+
192
+ ### Méthode 2 : Tutoriel pour débutant pur
193
+ [Tutoriel pour débutant pur](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BB%A3%E7%90%86%E8%BD%AF%E4%BB%B6%E9%97%AE%E9%A2%98%E7%9A%84%E6%96%B0%E6%89%8B%E8%A7%A3%E5%86%B3%E6%96%B9%E6%B3%95%EF%BC%88%E6%96%B9%E6%B3%95%E5%8F%AA%E9%80%82%E7%94%A8%E4%BA%8E%E6%96%B0%E6%89%8B%EF%BC%89)
194
+
195
+
196
+ ---
197
+
198
+ ## Personnalisation des nouveaux boutons pratiques (personnalisation des raccourcis académiques)
199
+ Ouvrez le fichier `core_functional.py` avec n'importe quel éditeur de texte, ajoutez les éléments suivants, puis redémarrez le programme. (Si le bouton a déjà été ajouté avec succès et est visible, le préfixe et le suffixe pris en charge peuvent être modifiés à chaud sans avoir besoin de redémarrer le programme.)
200
+ Par exemple:
201
+ ```
202
+ "Traduction Français-Chinois": {
203
+ # Préfixe, qui sera ajouté avant votre saisie. Par exemple, pour décrire votre demande, telle que la traduction, le débogage de code, l'amélioration, etc.
204
+ "Prefix": "Veuillez traduire le contenu ci-dessous en chinois, puis expliquer chaque terme propre mentionné dans un tableau Markdown :\n\n",
205
+
206
+ # Suffixe, qui sera ajouté après votre saisie. Par exemple, en combinaison avec un préfixe, vous pouvez mettre le contenu de votre saisie entre guillemets.
207
+ "Suffix": "",
208
+ },
209
+ ```
210
+
211
+ <div align="center">
212
+ <img src="https://user-images.githubusercontent.com/96192199/226899272-477c2134-ed71-4326-810c-29891fe4a508.png" width="500" >
213
+ </div>
214
+
215
+ ---
216
+
217
+
218
+ ## Présentation de certaines fonctionnalités
219
+
220
+ ### Affichage des images:
221
+
222
+ <div align="center">
223
+ <img src="https://user-images.githubusercontent.com/96192199/228737599-bf0a9d9c-1808-4f43-ae15-dfcc7af0f295.png" width="800" >
224
+ </div>
225
+
226
+
227
+ ### Si un programme peut comprendre et décomposer lui-même :
228
+
229
+ <div align="center">
230
+ <img src="https://user-images.githubusercontent.com/96192199/226936850-c77d7183-0749-4c1c-9875-fd4891842d0c.png" width="800" >
231
+ </div>
232
+
233
+ <div align="center">
234
+ <img src="https://user-images.githubusercontent.com/96192199/226936618-9b487e4b-ab5b-4b6e-84c6-16942102e917.png" width="800" >
235
+ </div>
236
+
237
+
238
+ ### Analyse de tout projet Python/Cpp quelconque :
239
+ <div align="center">
240
+ <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="800" >
241
+ </div>
242
+
243
+ <div align="center">
244
+ <img src="https://user-images.githubusercontent.com/96192199/226969067-968a27c1-1b9c-486b-8b81-ab2de8d3f88a.png" width="800" >
245
+ </div>
246
+
247
+ ### Lecture et résumé générés automatiquement pour les articles en Latex
248
+ <div align="center">
249
+ <img src="https://user-images.githubusercontent.com/96192199/227504406-86ab97cd-f208-41c3-8e4a-7000e51cf980.png" width="800" >
250
+ </div>
251
+
252
+ ### Génération de rapports automatique
253
+ <div align="center">
254
+ <img src="https://user-images.githubusercontent.com/96192199/227503770-fe29ce2c-53fd-47b0-b0ff-93805f0c2ff4.png" height="300" >
255
+ <img src="https://user-images.githubusercontent.com/96192199/227504617-7a497bb3-0a2a-4b50-9a8a-95ae60ea7afd.png" height="300" >
256
+ <img src="https://user-images.githubusercontent.com/96192199/227504005-efeaefe0-b687-49d0-bf95-2d7b7e66c348.png" height="300" >
257
+ </div>
258
+
259
+ ### Conception de fonctionnalités modulaires
260
+ <div align="center">
261
+ <img src="https://user-images.githubusercontent.com/96192199/229288270-093643c1-0018-487a-81e6-1d7809b6e90f.png" height="400" >
262
+ <img src="https://user-images.githubusercontent.com/96192199/227504931-19955f78-45cd-4d1c-adac-e71e50957915.png" height="400" >
263
+ </div>
264
+
265
+
266
+ ### Traduction de code source en anglais
267
+
268
+ <div align="center">
269
+ <img src="https://user-images.githubusercontent.com/96192199/229720562-fe6c3508-6142-4635-a83d-21eb3669baee.png" height="400" >
270
+ </div>
271
+
272
+ ## À faire et planification de version :
273
+ - version 3.2+ (à faire) : Prise en charge de plus de paramètres d'interface de plugin de fonction
274
+ - version 3.1 : Prise en charge de l'interrogation simultanée de plusieurs modèles GPT ! Prise en charge de l'API2d, prise en charge de la répartition de charge de plusieurs clés API
275
+ - version 3.0 : Prise en charge de chatglm et d'autres petits llm
276
+ - version 2.6 : Réorganisation de la structure du plugin, amélioration de l'interactivité, ajout de plus de plugins
277
+ - version 2.5 : Mise à jour automatique, résolution du problème de dépassement de jeton et de texte trop long lors de la compilation du code source complet
278
+ - version 2.4 : (1) Ajout de la fonctionnalité de traduction intégrale de PDF ; (2) Ajout d'une fonctionnalité de changement de position de zone de saisie ; (3) Ajout d'une option de disposition verticale ; (4) Optimisation du plugin de fonction multi-thread.
279
+ - version 2.3 : Amélioration de l'interactivité multi-thread
280
+ - version 2.2 : Prise en charge du rechargement à chaud du plugin de fonction
281
+ - version 2.1 : Mise en page pliable
282
+ - version 2.0 : Introduction du plugin de fonction modulaire
283
+ - version 1.0 : Fonctionnalité de base
284
+
285
+ ## Références et apprentissage
286
+
287
+ ```
288
+ De nombreux designs d'autres projets exceptionnels ont été utilisés pour référence dans le code, notamment :
289
+
290
+ # Projet 1 : De nombreuses astuces ont été empruntées à ChuanhuChatGPT
291
+ https://github.com/GaiZhenbiao/ChuanhuChatGPT
292
+
293
+ # Projet 2 : ChatGLM-6B de Tsinghua :
294
+ https://github.com/THUDM/ChatGLM-6B
295
+ ```
296
+
docs/README_JP.md ADDED
@@ -0,0 +1,294 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ > **Note**
2
+ >
3
+ > このReadmeファイルは、このプロジェクトのmarkdown翻訳プラグインによって自動的に生成されたもので、100%正確ではない可能性があります。
4
+ >
5
+
6
+ # <img src="logo.png" width="40" > ChatGPT 学術最適化
7
+
8
+ **このプロジェクトが気に入ったらスターを付けてください。また、より便利な学術用ショートカットまたは機能プラグインを考案された場合は、問題を開いたり、プルリクエストを投げたりすることができます。さらに、このプロジェクト自体によって翻訳された[README(英語)](docs/README_EN.md)もあります。**
9
+
10
+ > **注意**
11
+ >
12
+ > 1. 取り込まれたファイルを読み込むことができるのは、**赤色**で表示されている関数プラグイン(ボタン)のみであり、一部のプラグインはプラグイン領域の**ドロップダウンメニュー**にあります。さらに、新しいプラグインに関するいかなるPRでも、最優先で歓迎・処理いたします。
13
+ >
14
+ > 2. このプロジェクトの各ファイルの機能に関しては、[`self_analysis.md`](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A)で詳しく説明されています。バージョンが進化するにつれて、関連する関数プラグインをクリックしてChatGPTを呼び出し、プロジェクトの自己解析レポートを再生成することもいつでもできます。一般的な問題は[`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98)にまとめられています。
15
+
16
+
17
+ <div align="center">
18
+
19
+ 機能 | 説明
20
+ --- | ---
21
+ 一键修正 | 一键で論文の文法エラーを検索・修正できます
22
+ 一键日英翻訳 | 一键で英日の相互翻訳ができます。
23
+ コードの自動解釈 | コードが正しく表示され、解釈できます。
24
+ [カスタムショートカット](https://www.bilibili.com/video/BV14s4y1E7jN) | カスタムショートカットがサポートされます。
25
+ [プロキシサーバーの設定](https://www.bilibili.com/video/BV1rc411W7Dr) | プロキシサーバーの設定ができます。
26
+ モジュール化されたデザイン | 任意の高次の関数プラグインと[関数プラグイン]がカスタムされ、プラグインは[ホットアップデート](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)をサポートします。
27
+ [自己解析プログラム](https://www.bilibili.com/video/BV1cj411A7VW) | [関数プラグイン][一键分析](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A)はこのプロジェクトのソースコードを解析することができます。
28
+ [プログラムの解析](https://www.bilibili.com/video/BV1cj411A7VW) | [関数プラグイン] 一件で他のPython/C/C++/Java/Lua/...プロジェクトツリーを解析できます。
29
+ 論文の読解 | [関数プラグイン] 一件でLaTeX論文全文を解読し、要旨を生成できます。
30
+ LaTeX全文翻訳、修正 | [関数プラグイン] 一键でLaTeX論文を翻訳または修正できます。
31
+ 一括コードコメント生成 | [関数プラグイン] 一件で関数コメントを自動生成できます。
32
+ chatレポートの自動生成 | [関数プラグイン] 実行後、自動的にサマリーレポートを生成します。
33
+ [arxivアシスタント](https://www.bilibili.com/video/BV1LM4y1279X) | [関数プラグイン] arxiv記事URLを入力すると、要約を自動翻訳+PDFをダウンロードできます。
34
+ [PDF論文全文翻訳機能](https://www.bilibili.com/video/BV1KT411x7Wn) | [関数プラグイン] PDF論文のタイトルと要旨を抽出しながら、全文を翻訳できます(マルチスレッド)。
35
+ [Google Scholar統合アシスタント](https://www.bilibili.com/video/BV19L411U7ia) | [関数プラグイン] Google Scholarの検索ページURLを入力すると、gptが興味深い記事を選択します。
36
+ 数式、画像、表の表示 | 数式のtex形式とレンダリング形式を同時に表示し、公式、コードのハイライトがサポートされます。
37
+ マルチスレッド関数プラグインサポート | chatgptのマルチスレッド呼び出しがサポートされ、大量のテキストまたはプログラムを一括で処理できます。
38
+ Dark gradioスタイルの起動(https://github.com/binary-husky/chatgpt_academic/issues/173) | ブラウザのURLに```/?__dark-theme=true```を追加すると、ダークテーマに切り替えることができます。
39
+ [多数のLLMモデル](https://www.bilibili.com/video/BV1wT411p7yf)のサポート、[API2D](https://api2d.com/)インターフェースのサポート | 同時に、GPT3.5、GPT4、[清華ChatGLM](https://github.com/THUDM/ChatGLM-6B)がサポートされている感覚は、きっと素晴らしいはずですね?
40
+ huggingfaceが提供する科学技術ウェブ[体験版](https://huggingface.co/spaces/qingxu98/gpt-academic) | huggingfaceにログインした後[このスペース](https://huggingface.co/spaces/qingxu98/gpt-academic)をコピーしてください。
41
+ …… | ……
42
+
43
+ </div>
44
+
45
+ - 新しいインターフェース(config.pyのLAYOUTオプションを変更すると、左右のレイアウトと上下のレイアウトを切り替えることができます)。
46
+
47
+ <div align="center">
48
+ <img src="https://user-images.githubusercontent.com/96192199/230361456-61078362-a966-4eb5-b49e-3c62ef18b860.gif" width="700" >
49
+ </div>
50
+
51
+
52
+ - All buttons are dynamically generated by reading functional.py, and custom functions can be added, freeing up the clipboard.
53
+ <div align="center">
54
+ <img src="https://user-images.githubusercontent.com/96192199/231975334-b4788e91-4887-412f-8b43-2b9c5f41d248.gif" width="700" >
55
+ </div>
56
+
57
+ - Polishing/Error Correction
58
+ <div align="center">
59
+ <img src="https://user-images.githubusercontent.com/96192199/231980294-f374bdcb-3309-4560-b424-38ef39f04ebd.gif" width="700" >
60
+ </div>
61
+
62
+ - If the output contains formulas, it will be displayed in both tex form and rendering form at the same time for easy copying and reading.
63
+ <div align="center">
64
+ <img src="https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png" width="700" >
65
+ </div>
66
+
67
+ - Tired of looking at the project code? Just show chatgpt's mouth the whole project
68
+ <div align="center">
69
+ <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="700" >
70
+ </div>
71
+
72
+ - Various large language models are mixed and called (ChatGLM + OpenAI-GPT3.5 + [API2D](https://api2d.com/)-GPT4)
73
+ <div align="center">
74
+ <img src="https://user-images.githubusercontent.com/96192199/232537274-deca0563-7aa6-4b5d-94a2-b7c453c47794.png" width="700" >
75
+ </div>
76
+
77
+ Multiple large language models mixed call [huggingface beta](https://huggingface.co/spaces/qingxu98/academic-chatgpt-beta) (huggingface version does not support chatglm)
78
+
79
+
80
+ ---
81
+
82
+ ## Installation-Method 1: Run Directly (Windows, Linux or MacOS)
83
+
84
+ 1. Download the project
85
+ ```sh
86
+ git clone https://github.com/binary-husky/chatgpt_academic.git
87
+ cd chatgpt_academic
88
+ ```
89
+
90
+ 2. Configure API_KEY and proxy settings
91
+
92
+ In `config.py`, configure the overseas proxy and OpenAI API KEY, as explained below.
93
+ ```
94
+ 1. If you are in China, you need to set up overseas proxies to use the OpenAI API smoothly. Please read config.py carefully for the setting method (1. Change USE_PROXY to True; 2. Modify the proxies according to the instructions).
95
+ 2. Configure OpenAI API KEY. You need to register and obtain the API KEY on the OpenAI official website. Once you have the API KEY, configure it in the config.py file.
96
+ 3. Issues related to proxy networks (network timeout, proxies not working) are summarized at https://github.com/binary-husky/chatgpt_academic/issues/1
97
+ ```
98
+ (P.S. When the program is running, it will first check whether there is a private configuration file named `config_private.py` and use the configuration therein to override the same-named configuration in `config.py`. Therefore, if you can understand our configuration reading logic, we strongly recommend that you create a new configuration file named `config_private.py` next to `config.py` and transfer (copy) the configuration in `config.py` to `config_private.py`. `config_private.py` is not controlled by git, which can make your privacy information more secure.)
99
+
100
+ 3. Install dependencies
101
+ ```sh
102
+ # (Option 1) Recommended
103
+ python -m pip install -r requirements.txt
104
+
105
+ # (Option 2) If you use anaconda, the steps are similar:
106
+ # (Option 2.1) conda create -n gptac_venv python=3.11
107
+ # (Option 2.2) conda activate gptac_venv
108
+ # (Option 2.3) python -m pip install -r requirements.txt
109
+
110
+ # Note: Use the official pip source or Ali pip source. Other pip sources (such as some universities' pip) may have problems. Temporary switching source method:
111
+ # python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
112
+ ```
113
+
114
+ If you need to support Tsinghua ChatGLM, you need to install more dependencies separately (if you are not familiar with Python or your computer configuration is not good, it is not recommended to try):
115
+ ```sh
116
+ python -m pip install -r request_llm/requirements_chatglm.txt
117
+ ```
118
+
119
+ 4. Run
120
+ ```sh
121
+ python main.py
122
+ ```
123
+
124
+ 5. Test function plugin
125
+ ```
126
+ - Test Python project analysis
127
+ In the input area, enter `./crazy_functions/test_project/python/dqn`, and then click "Analyze the Entire Python Project"
128
+ - Test self-code interpretation
129
+ Click "[Multi-threaded Demo] Analyze this Project Itself (Self-Translating Source Code)"
130
+ - Test experimental functional template function (requires gpt to answer what happened in history today), you can use this function as a template to implement more complex functions
131
+ Click "[Function Plugin Template Demo] In History Today"
132
+ - There are more features to choose from in the function plugin dropdown menu
133
+ ```
134
+
135
+ ## Installation-Method 2: Using Docker (Linux)
136
+
137
+
138
+ あなたは、プロの学術論文翻訳者です。
139
+
140
+ 1. ChatGPTのみを使用(一般的にはこのオプションが推奨されます)
141
+ ``` sh
142
+ # プロジェクトをダウンロードします
143
+ git clone https://github.com/binary-husky/chatgpt_academic.git
144
+ cd chatgpt_academic
145
+ # 海外ProxyとOpenAI API KEYを構成する
146
+ config.pyをテキストエディタで開いて編集します。
147
+ # インストール
148
+ docker build -t gpt-academic .
149
+ # 実行
150
+ docker run --rm -it --net=host gpt-academic
151
+
152
+ # 関数プラグインのテスト
153
+ ## 関数プラグインテンプレート関数をテストします(gptが「今日の歴史で何が起こったか」と答えるように要求します)。この関数をテンプレートとして使用して、より複雑な機能を実装できます。
154
+ [関数プラグインテンプレートDemo]をクリックしてください。
155
+ ## LaTexプロジェクトの要約を書くテスト
156
+ 入力エリアに./crazy_functions/test_project/latex/attentionを入力し、「LaTex論文を読んで要約を書く」をクリックします。
157
+ ## Pythonプロジェクトの解析をテストする
158
+ 入力エリアに./crazy_functions/test_project/python/dqnを入力して、「Pythonプロジェクトを解析する」をクリックします。
159
+
160
+ より多くの機能が関数プラグインエリアのドロップダウンメニューで利用可能です。
161
+ ```
162
+
163
+ 2. ChatGPT+ChatGLMを使用する(Dockerに非常に詳しい必要があります + コンピュータの構成が十分に強力な必要があります)
164
+
165
+ ``` sh
166
+ # dockerfileを変更する
167
+ cd docs && nano Dockerfile+ChatGLM
168
+ # How to build | 構築方法(Dockerfile+ChatGLMはdocsのパスにありますので、まずcd docsを実行してください)
169
+ docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
170
+ # How to run | 実行方法 (1) 直接実行:
171
+ docker run --rm -it --net=host --gpus=all gpt-academic
172
+ # How to run | 実行方法 (2) コンテナに入って調整することを予め行いたい場合:
173
+ docker run --rm -it --net=host --gpus=all gpt-academic bash
174
+ ```
175
+
176
+
177
+ ## Installation-Method 3: その他のデプロイ方法
178
+
179
+ 1. クラウドサーバーにリモートでインストールする
180
+ [デプロイwiki-1](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)
181
+
182
+ 2. WSL2を使用する(Windows Subsystem for Linuxサブシステム)
183
+ [デプロイwiki-2](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BD%BF%E7%94%A8WSL2%EF%BC%88Windows-Subsystem-for-Linux-%E5%AD%90%E7%B3%BB%E7%BB%9F%EF%BC%89%E9%83%A8%E7%BD%B2)
184
+
185
+
186
+ ## Installation-プロキシ構成
187
+ ### 方法1: 標準的な方法
188
+ [プロキシの構成](https://github.com/binary-husky/chatgpt_academic/issues/1)
189
+
190
+ ### 方法2:初心者向けのチュートリアル
191
+ [初心者向けチュートリアル](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BB%A3%E7%90%86%E8%BD%AF%E4%BB%B6%E9%97%AE%E9%A2%98%E7%9A%84%E6%96%B0%E6%89%8B%E8%A7%A3%E5%86%B3%E6%96%B9%E6%B3%95%EF%BC%88%E6%96%B9%E6%B3%95%E5%8F%AA%E9%80%82%E7%94%A8%E4%BA%8E%E6%96%B0%E6%89%8B%EF%BC%89)
192
+
193
+
194
+ ---
195
+
196
+ ## カスタムコンビニエンスボタンの作成方法(学術用ショートカットキーをカスタマイズする)
197
+ 任意のテキストエディタで`core_functional.py`を開き、以下のエントリを追加し、プログラムを再起動します。 (ボタンが正常に追加されて表示されている場合、プレフィックスとサフィックスは両方ともリアルタイムで変更できるため、プログラムを再起動する必要はありません。)
198
+ 例えば
199
+ ```
200
+ "超级英译中": {
201
+ # プレフィックス、あなたの要求を説明するために使用されます。翻訳、コードの解析、精緻化など。
202
+ "Prefix": "以下の内容を中国語に翻訳し、専門用語が含まれる場合はマークダウン表で1つずつ説明してください:\n\n",
203
+
204
+ #サフィックス、プレフィックスと組み合わせて、入力内容を引用符で囲むことができます。
205
+ "Suffix": "",
206
+ },
207
+ ```
208
+ <div align="center">
209
+ <img src="https://user-images.githubusercontent.com/96192199/226899272-477c2134-ed71-4326-810c-29891fe4a508.png" width="500" >
210
+ </div>
211
+
212
+ ---
213
+
214
+
215
+ ## 一部の機能のデモ
216
+
217
+ ### 画像表示:
218
+
219
+ <div align="center">
220
+ <img src="https://user-images.githubusercontent.com/96192199/228737599-bf0a9d9c-1808-4f43-ae15-dfcc7af0f295.png" width="800" >
221
+ </div>
222
+
223
+
224
+ ### プログラムが自分自身を読み取り、分解できる場合:
225
+
226
+ <div align="center">
227
+ <img src="https://user-images.githubusercontent.com/96192199/226936850-c77d7183-0749-4c1c-9875-fd4891842d0c.png" width="800" >
228
+ </div>
229
+
230
+ <div align="center">
231
+ <img src="https://user-images.githubusercontent.com/96192199/226936618-9b487e4b-ab5b-4b6e-84c6-16942102e917.png" width="800" >
232
+ </div>
233
+
234
+
235
+ ### 他のPython/Cppプロジェクトの分析:
236
+ <div align="center">
237
+ <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="800" >
238
+ </div>
239
+
240
+ <div align="center">
241
+ <img src="https://user-images.githubusercontent.com/96192199/226969067-968a27c1-1b9c-486b-8b81-ab2de8d3f88a.png" width="800" >
242
+ </div>
243
+
244
+ ### LaTeX論文の読解と要約の自動生成
245
+ <div align="center">
246
+ <img src="https://user-images.githubusercontent.com/96192199/227504406-86ab97cd-f208-41c3-8e4a-7000e51cf980.png" width="800" >
247
+ </div>
248
+
249
+ ### 自動レポート生成
250
+ <div align="center">
251
+ <img src="https://user-images.githubusercontent.com/96192199/227503770-fe29ce2c-53fd-47b0-b0ff-93805f0c2ff4.png" height="300" >
252
+ <img src="https://user-images.githubusercontent.com/96192199/227504617-7a497bb3-0a2a-4b50-9a8a-95ae60ea7afd.png" height="300" >
253
+ <img src="https://user-images.githubusercontent.com/96192199/227504005-efeaefe0-b687-49d0-bf95-2d7b7e66c348.png" height="300" >
254
+ </div>
255
+
256
+ ### モジュール化された機能設計
257
+ <div align="center">
258
+ <img src="https://user-images.githubusercontent.com/96192199/229288270-093643c1-0018-487a-81e6-1d7809b6e90f.png" height="400" >
259
+ <img src="https://user-images.githubusercontent.com/96192199/227504931-19955f78-45cd-4d1c-adac-e71e50957915.png" height="400" >
260
+ </div>
261
+
262
+
263
+ ### ソースコードを英語に変換する
264
+
265
+ <div align="center">
266
+ <img src="https://user-images.githubusercontent.com/96192199/229720562-fe6c3508-6142-4635-a83d-21eb3669baee.png" height="400" >
267
+ </div>
268
+
269
+ ## タスクとバージョン計画:
270
+ - version 3.2+ (todo): 関数プラグインがより多くのパラメーターインターフェースをサポート
271
+ - version 3.1: 複数のgptモデルを同時に問い合わせるサポート! api2dをサポートし、複数のapikeyの負荷分散をサポート
272
+ - version 3.0: chatglmおよびその他の小規模llmのサポート
273
+ - version 2.6: プラグイン構造を再構築し、対話性を強化し、さらに多くのプラグインを追加
274
+ - version 2.5: 自動更新、長い文章、トークンのオーバーフローを解決する
275
+ - version 2.4: (1) PDF全文翻訳機能を追加。 (2)位置の切り替え機能を追加。 (3)垂直レイアウトオプションを追加。 (4)マルチスレッド関数プラグインの最適化。
276
+ - version 2.3: マルチスレッドの相互作用の強化
277
+ - version 2.2: 関数プラグインのホットリロードをサポート
278
+ - version 2.1: 折りたたみ式レイアウト
279
+ - version 2.0: モジュール化された関数プラグインを導入
280
+ - version 1.0: 基本機能
281
+
282
+ ## 参考と学習
283
+
284
+ ```
285
+ 多くの優れたプロジェクトの設計を参考にしています:
286
+
287
+ # 参考プロジェクト1:ChuanhuChatGPTから多くの技術を借りました
288
+ https://github.com/GaiZhenbiao/ChuanhuChatGPT
289
+
290
+ # 参考プロジェクト2:清華ChatGLM-6B:
291
+ https://github.com/THUDM/ChatGLM-6B
292
+ ```
293
+
294
+
docs/README_RS.md ADDED
@@ -0,0 +1,291 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ > **Note**
2
+ >
3
+ > Этот файл самовыражения автоматически генерируется модулем перевода markdown в этом проекте и может быть не на 100% правильным.
4
+ >
5
+
6
+ # <img src="logo.png" width="40" > ChatGPT Academic Optimization
7
+
8
+ **Если вам понравился этот проект, пожалуйста, поставьте ему звезду. Если вы придумали более полезные академические ярлыки или функциональные плагины, не стесняйтесь создавать запросы на изменение или пул-запросы. Мы также имеем [README на английском языке](docs/README_EN.md), переведенный этим же проектом.
9
+
10
+ > **Примечание**
11
+ >
12
+ > 1. Пожалуйста, обратите внимание, что только функциonal plugins (buttons) с **красным цветом** могут читать файлы, некоторые из которых находятся в **выпадающем меню** плагинов. Кроме того, мы приветствуем и обрабатываем любые новые плагины с **наивысшим приоритетом**!
13
+ >
14
+ > 2. Функции каждого файла в этом проекте подробно описаны в собственном анализе [`self_analysis.md`](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A) . При повторных итерациях вы также можете вызывать обновленный отчет функций проекта, щелкнув соответствующий функциональный плагин GPT. Часто задаваемые вопросы собраны в [`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98) .
15
+
16
+ <div align="center">
17
+
18
+ Функция | Описание
19
+ --- | ---
20
+ Редактирование одним кликом | Поддержка редактирования одним кликом, поиск грамматических ошибок в академических статьях
21
+ Переключение языков "Английский-Китайский" одним кликом | Одним кликом переключайте языки "Английский-Китайский"
22
+ Разъяснение программного кода одним кликом | Вы можете правильно отобразить и объяснить программный код.
23
+ [Настраиваемые сочетания клавиш](https://www.bilibili.com/video/BV14s4y1E7jN) | Поддержка настраиваемых сочетаний клавиш
24
+ [Настройка сервера-прокси](https://www.bilibili.com/video/BV1rc411W7Dr) | Поддержка настройки сервера-прокси
25
+ Модульный дизайн | Поддержка настраиваемых функциональных плагинов высших порядков и функциональных плагинов, поддерживающих [горячее обновление](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)
26
+ [Автоанализ программы](https://www.bilibili.com/video/BV1cj411A7VW) | [Функциональный плагин] [Прочтение в один клик](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A) кода программы проекта
27
+ [Анализ программы](https://www.bilibili.com/video/BV1cj411A7VW) | [Функциональный плагин] Один клик для проанализирования дерева других проектов Python/C/C++/Java/Lua/...
28
+ Чтение статей| [Функциональный плагин] Одним кликом прочитайте весь латех (LaTex) текст статьи и сгенерируйте краткое описание
29
+ Перевод и редактирование всех статей из LaTex | [Функциональный плагин] Перевод или редактирование LaTex-статьи всего одним нажатием кнопки
30
+ Генерация комментариев в пакетном режиме | [Функциональный плагин] Одним кликом сгенерируйте комментарии к функциям в пакетном режиме
31
+ Генерация отчетов пакета CHAT | [Функциональный плагин] Автоматически создавайте сводные отчеты после выполнения
32
+ [Помощник по arxiv](https://www.bilibili.com/video/BV1LM4y1279X) | [Функциональный плагин] Введите URL статьи arxiv, чтобы легко перевести резюме и загрузить PDF-файл
33
+ [Перевод полного текста статьи в формате PDF](https://www.bilibili.com/video/BV1KT411x7Wn) | [Функциональный плагин] Извлеките заголовок статьи, резюме и переведите весь текст статьи (многопоточно)
34
+ [Помощник интеграции Google Scholar](https://www.bilibili.com/video/BV19L411U7ia) | [Функциональный плагин] Дайте GPT выбрать для вас интересные статьи на любой странице поиска Google Scholar.
35
+ Отображение формул/изображений/таблиц | Одновременно отображается tex-форма и рендер-форма формул, поддержка формул, высокоскоростных кодов
36
+ Поддержка функциональных плагинов многопоточности | Поддержка многопоточной работы с плагинами, обрабатывайте огромные объемы текста или программы одним кликом
37
+ Запуск темной темы gradio[подробнее](https://github.com/binary-husky/chatgpt_academic/issues/173) | Добавьте / ?__dark-theme=true в конец URL браузера, чтобы переключиться на темную тему.
38
+ [Поддержка нескольких моделей LLM](https://www.bilibili.com/video/BV1wT411p7yf), поддержка API2D | Находиться между GPT3.5, GPT4 и [清华ChatGLM](https://github.com/THUDM/ChatGLM-6B) должно быть очень приятно, не так ли?
39
+ Альтернатива huggingface без использования научной сети [Онлайн-эксперимент](https://huggingface.co/spaces/qingxu98/gpt-academic) | Войдите в систему, скопируйте пространство [этот пространственный URL](https://huggingface.co/spaces/qingxu98/gpt-academic)
40
+ …… | ……
41
+
42
+
43
+ </div>
44
+
45
+ - Новый интерфейс (вы можете изменить настройку LAYOUT в config.py, чтобы переключаться между "горизонтальным расположением" и "вертикальным расположением")
46
+ <div align="center">
47
+ <img src="https://user-images.githubusercontent.com/96192199/230361456-61078362-a966-4eb5-b49e-3c62ef18b860.gif" width="700" >
48
+ </div>
49
+
50
+
51
+ Вы профессиональный переводчик научных статей.
52
+
53
+ - Все кнопки генерируются динамически путем чтения functional.py и могут быть легко настроены под пользовательские потребности, освобождая буфер обмена.
54
+ <div align="center">
55
+ <img src="https://user-images.githubusercontent.com/96192199/231975334-b4788e91-4887-412f-8b43-2b9c5f41d248.gif" width="700" >
56
+ </div>
57
+
58
+ - Редактирование/корректирование
59
+ <div align="center">
60
+ <img src="https://user-images.githubusercontent.com/96192199/231980294-f374bdcb-3309-4560-b424-38ef39f04ebd.gif" width="700" >
61
+ </div>
62
+
63
+ - Если вывод содержит формулы, они отображаются одновременно как в формате tex, так и в рендеринговом формате для удобства копирования и чтения.
64
+ <div align="center">
65
+ <img src="https://user-images.githubusercontent.com/96192199/230598842-1d7fcddd-815d-40ee-af60-baf488a199df.png" width="700" >
66
+ </div>
67
+
68
+ - Лень смотреть код проекта? Просто покажите chatgpt.
69
+ <div align="center">
70
+ <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="700" >
71
+ </div>
72
+
73
+ - Несколько моделей больших языковых моделей смешиваются (ChatGLM + OpenAI-GPT3.5 + [API2D] (https://api2d.com/) -GPT4)
74
+ <div align="center">
75
+ <img src="https://user-images.githubusercontent.com/96192199/232537274-deca0563-7aa6-4b5d-94a2-b7c453c47794.png" width="700" >
76
+ </div>
77
+
78
+ Несколько моделей больших языковых моделей смешиваются в [бета-версии huggingface] (https://huggingface.co/spaces/qingxu98/academic-chatgpt-beta) (huggingface-версия не поддерживает chatglm).
79
+
80
+
81
+ ---
82
+
83
+ ## Установка - Метод 1: Запуск (Windows, Linux или MacOS)
84
+
85
+ 1. Скачайте проект
86
+ ```sh
87
+ git clone https://github.com/binary-husky/chatgpt_academic.git
88
+ cd chatgpt_academic
89
+ ```
90
+
91
+ 2. Настройка API_KEY и настройки прокси
92
+
93
+ В файле `config.py` настройте зарубежный прокси и OpenAI API KEY, пояснения ниже
94
+ ```
95
+ 1. Если вы находитесь в Китае, вам нужно настроить зарубежный прокси, чтобы использовать OpenAI API. Пожалуйста, внимательно прочитайте config.py для получения инструкций (1. Измените USE_PROXY на True; 2. Измените прокси в соответствии с инструкциями).
96
+ 2. Настройка API KEY OpenAI. Вам необходимо зарегистрироваться на сайте OpenAI и получить API KEY. После получения API KEY настройте его в файле config.py.
97
+ 3. Вопросы, связанные с сетевыми проблемами (тайм-аут сети, прокси не работает), можно найти здесь: https://github.com/binary-husky/chatgpt_academic/issues/1
98
+ ```
99
+ (Примечание: при запуске программы будет проверяться наличие конфиденциального файла конфигурации с именем `config_private.py` и использоваться в нем конфигурация параметров, которая перезаписывает параметры с такими же именами в `config.py`. Поэтому, если вы понимаете логику чтения нашей конфигурации, мы настоятельно рекомендуем вам создать новый файл конфигурации с именем `config_private.py` рядом с `config.py` и переместить (скопировать) настройки из `config.py` в `config_private.py`. `config_private.py` не подвергается контролю git, что делает конфиденциальную информацию более безопасной.)
100
+
101
+
102
+ 3. Установить зависимости
103
+ ```sh
104
+ # (Выбор 1) Рекомендуется
105
+ python -m pip install -r requirements.txt
106
+
107
+ # (Выбор 2) Если вы используете anaconda, то шаги будут аналогичны:
108
+ # (Шаг 2.1) conda create -n gptac_venv python=3.11
109
+ # (Шаг 2.2) conda activate gptac_venv
110
+ # (Шаг 2.3) python -m pip install -r requirements.txt
111
+
112
+ # Примечание: используйте официальный источник pip или источник pip.aliyun.com. Другие источники pip могут вызывать проблемы. временный метод замены источника:
113
+ # python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
114
+ ```
115
+
116
+ Если требуется поддержка TUNA ChatGLM, необходимо установить дополнительные зависимости (если вы неудобны с python, необходимо иметь хорошую конфигурацию компьютера):
117
+ ```sh
118
+ python -m pip install -r request_llm/requirements_chatglm.txt
119
+ ```
120
+
121
+ 4. Запустите
122
+ ```sh
123
+ python main.py
124
+ ```
125
+
126
+ 5. Тестовые функции плагина
127
+ ```
128
+ - Тестирвоание анализа проекта Python
129
+ В основной области введите `./crazy_functions/test_project/python/dqn` , а затем нажмите "Анализировать весь проект Python"
130
+ - Тестирование самостоятельного чтения кода
131
+ Щелкните " [Демонстрационный режим многопоточности] Проанализируйте сам проект (расшифровка источника кода)"
132
+ - Тестирование функций шаблонного плагина (вы можете использовать эту функцию как шаблон для более сложных функций, требующих ответа от gpt в связи с тем, что произошло сегодня в истории)
133
+ Щелкните " [Функции шаблонного плагина] День в истории"
134
+ - На нижней панели дополнительные функции для выбора
135
+ ```
136
+
137
+ ## Установка - Метод 2: Использование docker (Linux)
138
+
139
+
140
+ 1. Только ChatGPT (рекомендуется для большинства пользователей):
141
+ ``` sh
142
+ # Скачать проект
143
+ git clone https://github.com/binary-husky/chatgpt_academic.git
144
+ cd chatgpt_academic
145
+ # Настроить прокси за границей и OpenAI API KEY
146
+ Отредактируйте файл config.py в любом текстовом редакторе.
147
+ # Установка
148
+ docker build -t gpt-academic .
149
+ # Запустить
150
+ docker run --rm -it --net=host gpt-academic
151
+
152
+ # Проверка функциональности плагина
153
+ ## Прове��ка шаблонной функции плагина (требуется, чтобы gpt ответил, что произошло "в истории на этот день"), вы можете использовать эту функцию в качестве шаблона для реализации более сложных функций.
154
+ Нажмите "[Шаблонный демонстрационный плагин] История на этот день".
155
+ ## Тест абстрактного резюме для проекта на Latex
156
+ В области ввода введите ./crazy_functions/test_project/latex/attention, а затем нажмите "Чтение реферата о тезисах статьи на LaTeX".
157
+ ## Тестовый анализ проекта на Python
158
+ Введите в область ввода ./crazy_functions/test_project/python/dqn, затем нажмите "Проанализировать весь проект на Python".
159
+
160
+ Выбирайте больше функциональных плагинов в нижнем выпадающем меню.
161
+ ```
162
+
163
+ 2. ChatGPT + ChatGLM (требуется глубокое знание Docker и достаточно мощное компьютерное оборудование):
164
+
165
+ ``` sh
166
+ # Изменение Dockerfile
167
+ cd docs && nano Dockerfile+ChatGLM
168
+ # Как построить | Как запустить (Dockerfile+ChatGLM в пути docs, сначала перейдите в папку с помощью cd docs)
169
+ docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
170
+ # Как запустить | Как запустить (2) я хочу войти в контейнер и сделать какие-то настройки до запуска:
171
+ docker run --rm -it --net=host --gpus=all gpt-academic bash
172
+ ```
173
+
174
+
175
+ ## Установка-Метод 3: Другие способы развертывания
176
+
177
+ 1. Развертывание на удаленном облачном сервере
178
+ Пожалуйста, посетите [Deploy Wiki-1] (https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)
179
+
180
+ 2. Использование WSL2 (Windows Subsystem for Linux)
181
+ Пожалуйста, посетите [Deploy Wiki-2] (https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BD%BF%E7%94%A8WSL2%EF%BC%88Windows-Subsystem-for-Linux-%E5%AD%90%E7%B3%BB%E7%BB%9F%EF%BC%89%E9%83%A8%E7%BD%B2)
182
+
183
+
184
+ ## Установка-Настройки прокси
185
+ ### Метод 1: Обычный способ
186
+ [Конфигурация прокси] (https://github.com/binary-husky/chatgpt_academic/issues/1)
187
+
188
+ ### Метод 2: Руководство новичка
189
+ [Руководство новичка] (https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BB%A3%E7%90%86%E8%BD%AF%E4%BB%B6%E9%97%AE%E9%A2%98%E7%9A%84%E6%96%B0%E6%89%8B%E8%A7%A3%E5%86%B3%E6%96%B9%E6%B3%95%EF%BC%88%E6%96%B9%E6%B3%95%E5%8F%AA%E9%80%82%E7%94%A8%E4%BA%8E%E6%96%B0%E6%89%8B%EF%BC%89)
190
+
191
+
192
+ ---
193
+
194
+ ## Настройка новой удобной кнопки (настройка быстрой клавиши для научной работы)
195
+ Откройте `core_functional.py` любым текстовым редактором, добавьте элементы, как показано ниже, затем перезапустите программу. (Если кнопка уже успешно добавлена и видна, то префикс и суффикс поддерживают горячее изменение, чтобы они оказались в действии, не нужно перезапускать программу.)
196
+ например
197
+ ```
198
+ "Супер анг-рус": {
199
+ # Префикс, будет добавлен перед вашим вводом. Например, используется для описания ваших потребностей, таких как перевод, кодинг, редактирование и т. д.
200
+ "Prefix": "Пожалуйста, переведите этот фрагмент на русский язык, а затем создайте пошаговую таблицу в markdown, чтобы объяснить все специализированные термины, которые встречаются в тексте:\n\n",
201
+
202
+ # Суффикс, будет добавлен после вашего ввода. Например, совместно с префиксом можно обрамить ваш ввод в кавычки.
203
+ "Suffix": "",
204
+ },
205
+ ```
206
+ <div align="center">
207
+ <img src="https://user-images.githubusercontent.com/96192199/226899272-477c2134-ed71-4326-810c-29891fe4a508.png" width="500" >
208
+ </div>
209
+
210
+ ---
211
+
212
+
213
+ ## Демонстрация некоторых возможностей
214
+
215
+ ### Отображение изображений:
216
+
217
+ <div align="center">
218
+ <img src="https://user-images.githubusercontent.com/96192199/228737599-bf0a9d9c-1808-4f43-ae15-dfcc7af0f295.png" width="800" >
219
+ </div>
220
+
221
+
222
+ ### Если программа может понимать и разбирать сама себя:
223
+
224
+ <div align="center">
225
+ <img src="https://user-images.githubusercontent.com/96192199/226936850-c77d7183-0749-4c1c-9875-fd4891842d0c.png" width="800" >
226
+ </div>
227
+
228
+ <div align="center">
229
+ <img src="https://user-images.githubusercontent.com/96192199/226936618-9b487e4b-ab5b-4b6e-84c6-16942102e917.png" width="800" >
230
+ </div>
231
+
232
+
233
+ ### Анализ других проектов на Python/Cpp:
234
+ <div align="center">
235
+ <img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="800" >
236
+ </div>
237
+
238
+ <div align="center">
239
+ <img src="https://user-images.githubusercontent.com/96192199/226969067-968a27c1-1b9c-486b-8b81-ab2de8d3f88a.png" width="800" >
240
+ </div>
241
+
242
+ ### Генерация понимания и абстрактов с помощью Латех статей в один клик
243
+ <div align="center">
244
+ <img src="https://user-images.githubusercontent.com/96192199/227504406-86ab97cd-f208-41c3-8e4a-7000e51cf980.png" width="800" >
245
+ </div>
246
+
247
+ ### Автоматическое создание отчетов
248
+ <div align="center">
249
+ <img src="https://user-images.githubusercontent.com/96192199/227503770-fe29ce2c-53fd-47b0-b0ff-93805f0c2ff4.png" height="300" >
250
+ <img src="https://user-images.githubusercontent.com/96192199/227504617-7a497bb3-0a2a-4b50-9a8a-95ae60ea7afd.png" height="300" >
251
+ <img src="https://user-images.githubusercontent.com/96192199/227504005-efeaefe0-b687-49d0-bf95-2d7b7e66c348.png" height="300" >
252
+ </div>
253
+
254
+ ### Модульный дизайн функций
255
+ <div align="center">
256
+ <img src="https://user-images.githubusercontent.com/96192199/229288270-093643c1-0018-487a-81e6-1d7809b6e90f.png" height="400" >
257
+ <img src="https://user-images.githubusercontent.com/96192199/227504931-19955f78-45cd-4d1c-adac-e71e50957915.png" height="400" >
258
+ </div>
259
+
260
+
261
+ ### Трансляция исходного кода на английский язык
262
+
263
+ <div align="center">
264
+ <img src="https://user-images.githubusercontent.com/96192199/229720562-fe6c3508-6142-4635-a83d-21eb3669baee.png" height="400" >
265
+ </div>
266
+
267
+ ## Todo и планирование версий:
268
+ - version 3.2+ (todo): функция плагины поддерживают более многочисленные интерфейсы параметров
269
+ - version 3.1: поддержка одновременного опроса нескольких моделей gpt! Поддержка api2d, поддержка балансировки нагрузки множества apikey.
270
+ - version 3.0: поддержка chatglm и других маленьких llm
271
+ - version 2.6: реструктурировал структуру плагинов, повысил интерактивность, добавил больше плагинов
272
+ - version 2.5: само обновление, решение проблемы слишком длинного текста и переполнения токена при переводе всего проекта исходного кода
273
+ - version 2.4: (1) добавлена функция перевода всего PDF-документа; (2) добавлена функция изменения положения входной области; (3) добавлена опция вертикального макета; (4) оптимизация функций многопоточности плагина.
274
+ - version 2.3: улучшение многопоточной интерактивности
275
+ - version 2.2: функция плагинов поддерживает горячую перезагрузку
276
+ - version 2.1: блочная раскладка
277
+ - version 2.0: модульный дизайн функций плагина
278
+ - version 1.0: основные функции
279
+
280
+ ## Ссылки на изучение и обучение
281
+
282
+ ```
283
+ В коде использовано много хороших дизайнерских решений из других отличных проектов, в том числе:
284
+
285
+ # Project1: использование многих приемов из ChuanhuChatGPT
286
+ https://github.com/GaiZhenbiao/ChuanhuChatGPT
287
+
288
+ # Project2: ChatGLM-6B в Тхуде:
289
+ https://github.com/THUDM/ChatGLM-6B
290
+ ```
291
+