Update README.md
Browse files
README.md
CHANGED
@@ -25,6 +25,8 @@ Mô hình Vi-Qwen2-7B-RAG được thiết kế chuyên biệt cho RAG (ngữ c
|
|
25 |
Ngoài ra, chúng tôi cũng triển khai các mô hình nhỏ hơn phù hợp với mục đích sử dụng khác nhau như Vi-Qwen2-1.5B-RAG (https://huggingface.co/AITeamVN/Vi-Qwen2-1.5B-RAG)
|
26 |
và Vi-Qwen2.5-3B-RAG (https://huggingface.co/AITeamVN/Vi-Qwen2-3B-RAG)
|
27 |
|
|
|
|
|
28 |
**Hạn chế:**
|
29 |
|
30 |
Vì mô hình chỉ được thiết kế chuyên biệt cho RAG task, nên có thể gặp 1 số hạn chế sau:
|
@@ -39,7 +41,6 @@ Ngữ cảnh đầu vào chỉ chứa 1 ngữ cảnh (1 postive hoặc 1 negativ
|
|
39 |
import torch
|
40 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
41 |
path = 'AITeamVN/Vi-Qwen2-7B-RAG'
|
42 |
-
system_prompt = "Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể."
|
43 |
model = AutoModelForCausalLM.from_pretrained(
|
44 |
path,
|
45 |
torch_dtype=torch.bfloat16,
|
@@ -47,6 +48,8 @@ model = AutoModelForCausalLM.from_pretrained(
|
|
47 |
use_cache=True
|
48 |
)
|
49 |
tokenizer = AutoTokenizer.from_pretrained(path)
|
|
|
|
|
50 |
template = '''Chú ý các yêu cầu sau:
|
51 |
- Câu trả lời phải chính xác và đầy đủ nếu ngữ cảnh có câu trả lời.
|
52 |
- Chỉ sử dụng các thông tin có trong ngữ cảnh được cung cấp.
|
|
|
25 |
Ngoài ra, chúng tôi cũng triển khai các mô hình nhỏ hơn phù hợp với mục đích sử dụng khác nhau như Vi-Qwen2-1.5B-RAG (https://huggingface.co/AITeamVN/Vi-Qwen2-1.5B-RAG)
|
26 |
và Vi-Qwen2.5-3B-RAG (https://huggingface.co/AITeamVN/Vi-Qwen2-3B-RAG)
|
27 |
|
28 |
+
* Ngoài RAG task, bạn vẫn có thể chatbot bình thường với model của chúng tôi. Thậm chí có thể hỏi các câu hỏi liên tục với ngữ cảnh đầu vào.
|
29 |
+
|
30 |
**Hạn chế:**
|
31 |
|
32 |
Vì mô hình chỉ được thiết kế chuyên biệt cho RAG task, nên có thể gặp 1 số hạn chế sau:
|
|
|
41 |
import torch
|
42 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
43 |
path = 'AITeamVN/Vi-Qwen2-7B-RAG'
|
|
|
44 |
model = AutoModelForCausalLM.from_pretrained(
|
45 |
path,
|
46 |
torch_dtype=torch.bfloat16,
|
|
|
48 |
use_cache=True
|
49 |
)
|
50 |
tokenizer = AutoTokenizer.from_pretrained(path)
|
51 |
+
|
52 |
+
system_prompt = "Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể."
|
53 |
template = '''Chú ý các yêu cầu sau:
|
54 |
- Câu trả lời phải chính xác và đầy đủ nếu ngữ cảnh có câu trả lời.
|
55 |
- Chỉ sử dụng các thông tin có trong ngữ cảnh được cung cấp.
|