chiennv commited on
Commit
33e9cb6
1 Parent(s): 4d28eb8

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +69 -1
README.md CHANGED
@@ -11,7 +11,75 @@ tags:
11
  - uonlp
12
  - Viet-Mistral
13
 
14
- prompt_template: ''
 
 
 
 
 
 
15
  quantized_by: chiennv
16
  ---
17
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
11
  - uonlp
12
  - Viet-Mistral
13
 
14
+ prompt_template: '<s>[INST] <<SYS>>
15
+ Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể, đồng thời giữ an toàn.
16
+ Câu trả lời của bạn không nên chứa bất kỳ nội dung gây hại, phân biệt chủng tộc, phân biệt giới tính, độc hại, nguy hiểm hoặc bất hợp pháp nào. Hãy đảm bảo rằng các câu trả lời của bạn không có thiên kiến xã hội và mang tính tích cực.Nếu một câu hỏi không có ý nghĩa hoặc không hợp lý về mặt thông tin, hãy giải thích tại sao thay vì trả lời một điều gì đó không chính xác. Nếu bạn không biết câu trả lời cho một câu hỏi, hãy trẳ lời là bạn không biết và vui lòng không chia sẻ thông tin sai lệch.
17
+ <</SYS>>
18
+
19
+ {prompt} [/INST]
20
+ '
21
  quantized_by: chiennv
22
  ---
23
 
24
+ The challenge with large language models is that they cannot be executed locally on your laptop.
25
+ Thanks to [llama.cpp](https://github.com/ggerganov/llama.cpp) project, it is now feasible to operate our [Vistral-7B-Chat](https://huggingface.co/Viet-Mistral/Vistral-7B-Chat) on a single computer (Window or Macbook) even without a dedicated GPU.
26
+
27
+ # Vistral-7B-Chat - GGUF
28
+ - Model creator: [Viet Mistral](https://huggingface.co/Viet-Mistral/)
29
+ - Original model: [Vistral-7B-Chat](https://huggingface.co/Viet-Mistral/Vistral-7B-Chat)
30
+
31
+ <!-- description start -->
32
+ ## Description
33
+
34
+ This repo contains GGUF format model files for [Vistral-7B-Chat](https://huggingface.co/Viet-Mistral/Vistral-7B-Chat).
35
+
36
+ <!-- description end -->
37
+
38
+ <!-- README_GGUF.md-about-gguf start -->
39
+ ### About GGUF
40
+
41
+ GGUF is a new format introduced by the llama.cpp team on August 21st 2023. It is a replacement for GGML. GGUF offers numerous advantages over GGML, such as better tokenization, and support for special tokens. It also supports metadata, and is designed to be extensible.
42
+
43
+ Here is several clients and libraries that are known to support GGUF:
44
+
45
+ * [llama.cpp](https://github.com/ggerganov/llama.cpp). The source project for GGUF. Offers a CLI and a server option.
46
+ * [text-generation-webui](https://github.com/oobabooga/text-generation-webui), the most widely used web UI, with many features and powerful extensions. Supports GPU acceleration.
47
+ * [LM Studio](https://lmstudio.ai/), an easy-to-use and powerful local GUI for Windows and macOS (Silicon), with GPU acceleration.
48
+ * [ctransformers](https://github.com/marella/ctransformers), a Python library with GPU accel, LangChain support, and OpenAI-compatible AI server.
49
+ <!-- README_GGUF.md-about-gguf end -->
50
+ <!-- repositories-available start -->
51
+
52
+ <!-- prompt-template start -->
53
+ ## Prompt template: Vistral-7B-Chat
54
+
55
+ ```
56
+ <s>[INST] <<SYS>>
57
+ Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể, đồng thời giữ an toàn.
58
+ Câu trả lời của bạn không nên chứa bất kỳ nội dung gây hại, phân biệt chủng tộc, phân biệt giới tính, độc hại, nguy hiểm hoặc bất hợp pháp nào. Hãy đảm bảo rằng các câu trả lời của bạn không có thiên kiến xã hội và mang tính tích cực.Nếu một câu hỏi không có ý nghĩa hoặc không hợp lý về mặt thông tin, hãy giải thích tại sao thay vì trả lời một điều gì đó không chính xác. Nếu bạn không biết câu trả lời cho một câu hỏi, hãy trẳ lời là bạn không biết và vui lòng không chia sẻ thông tin sai lệch.
59
+ <</SYS>>
60
+
61
+ {prompt} [/INST]
62
+
63
+ ```
64
+
65
+ You can also use the chat template file in [this repository](https://huggingface.co/chiennv/Vistral-7B-Chat-gguf/blob/main/template_chat.json).
66
+ <!-- prompt-template end -->
67
+
68
+ ## How to download GGUF files
69
+
70
+ ## How to run Inference with GGUF files
71
+
72
+ ### Run from Python code using ctransformers
73
+
74
+ ### LM Studio
75
+
76
+ ### Use with langchain
77
+
78
+ ## Citation
79
+ ```
80
+ @article{chien2023vistral,
81
+ author = {Chien Van Nguyen, Thuat Nguyen, Quan Nguyen, Huy Huu Nguyen, Björn Plüster, Nam Pham, Huu Nguyen, Patrick Schramowski, Thien Huu Nguyen},
82
+ title = {Vistral-7B-Chat - Towards a State-of-the-Art Large Language Model for Vietnamese},
83
+ year = 2023,
84
+ }
85
+ ```