AITeamVN commited on
Commit
4dfdd6a
1 Parent(s): 7095c06

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -1
README.md CHANGED
@@ -25,6 +25,8 @@ Mô hình Vi-Qwen2-7B-RAG được thiết kế chuyên biệt cho RAG (ngữ c
25
  Ngoài ra, chúng tôi cũng triển khai các mô hình nhỏ hơn phù hợp với mục đích sử dụng khác nhau như Vi-Qwen2-1.5B-RAG (https://huggingface.co/AITeamVN/Vi-Qwen2-1.5B-RAG)
26
  và Vi-Qwen2.5-3B-RAG (https://huggingface.co/AITeamVN/Vi-Qwen2-3B-RAG)
27
 
 
 
28
  **Hạn chế:**
29
 
30
  Vì mô hình chỉ được thiết kế chuyên biệt cho RAG task, nên có thể gặp 1 số hạn chế sau:
@@ -39,7 +41,6 @@ Ngữ cảnh đầu vào chỉ chứa 1 ngữ cảnh (1 postive hoặc 1 negativ
39
  import torch
40
  from transformers import AutoModelForCausalLM, AutoTokenizer
41
  path = 'AITeamVN/Vi-Qwen2-7B-RAG'
42
- system_prompt = "Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể."
43
  model = AutoModelForCausalLM.from_pretrained(
44
  path,
45
  torch_dtype=torch.bfloat16,
@@ -47,6 +48,8 @@ model = AutoModelForCausalLM.from_pretrained(
47
  use_cache=True
48
  )
49
  tokenizer = AutoTokenizer.from_pretrained(path)
 
 
50
  template = '''Chú ý các yêu cầu sau:
51
  - Câu trả lời phải chính xác và đầy đủ nếu ngữ cảnh có câu trả lời.
52
  - Chỉ sử dụng các thông tin có trong ngữ cảnh được cung cấp.
 
25
  Ngoài ra, chúng tôi cũng triển khai các mô hình nhỏ hơn phù hợp với mục đích sử dụng khác nhau như Vi-Qwen2-1.5B-RAG (https://huggingface.co/AITeamVN/Vi-Qwen2-1.5B-RAG)
26
  và Vi-Qwen2.5-3B-RAG (https://huggingface.co/AITeamVN/Vi-Qwen2-3B-RAG)
27
 
28
+ * Ngoài RAG task, bạn vẫn có thể chatbot bình thường với model của chúng tôi. Thậm chí có thể hỏi các câu hỏi liên tục với ngữ cảnh đầu vào.
29
+
30
  **Hạn chế:**
31
 
32
  Vì mô hình chỉ được thiết kế chuyên biệt cho RAG task, nên có thể gặp 1 số hạn chế sau:
 
41
  import torch
42
  from transformers import AutoModelForCausalLM, AutoTokenizer
43
  path = 'AITeamVN/Vi-Qwen2-7B-RAG'
 
44
  model = AutoModelForCausalLM.from_pretrained(
45
  path,
46
  torch_dtype=torch.bfloat16,
 
48
  use_cache=True
49
  )
50
  tokenizer = AutoTokenizer.from_pretrained(path)
51
+
52
+ system_prompt = "Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể."
53
  template = '''Chú ý các yêu cầu sau:
54
  - Câu trả lời phải chính xác và đầy đủ nếu ngữ cảnh có câu trả lời.
55
  - Chỉ sử dụng các thông tin có trong ngữ cảnh được cung cấp.