dtthanh commited on
Commit
bba1c92
·
1 Parent(s): 458ab8e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +17 -17
README.md CHANGED
@@ -5,28 +5,28 @@ language:
5
  - vi
6
  ---
7
  ### Adapter info
8
-
9
- - This is an Lora adapter using dataset contains only 360 Vietnamese sentences and the "text" column in a format like:
10
  -
11
  ```python
12
- > \<s\>\[INST\] "Bạn bè có phúc cùng chia."\[\/INST\] Bạn bè có phúc cùng chia. Có họa trốn sạch chạy đi phương nào? Tay trắng làm nên… mấy chục ngàn bạc nợ. \<\/s\>
 
13
  or
14
- > \<s\>\[INST\] Ai bảo chăn trâu là khổ. \[\/INST\] Ai bảo chăn trâu là khổ. Tôi chăn chồng còn khổ hơn trâu. Trâu đi trâu biêt đường về. Chồng đi không biết dường về như trâu. \<\/s\>"
 
15
 
16
  ## Training procedure
17
-
18
-
19
- The following `bitsandbytes` quantization config was used during training:
20
- - load_in_8bit: False
21
- - load_in_4bit: True
22
- - llm_int8_threshold: 6.0
23
- - llm_int8_skip_modules: None
24
- - llm_int8_enable_fp32_cpu_offload: False
25
- - llm_int8_has_fp16_weight: False
26
- - bnb_4bit_quant_type: nf4
27
- - bnb_4bit_use_double_quant: False
28
- - bnb_4bit_compute_dtype: float16
29
- ### Framework versions
30
 
31
  ### Usage
32
  -
 
5
  - vi
6
  ---
7
  ### Adapter info
8
+ -
9
+ This is an Lora adapter using dataset contains only 360 Vietnamese sentences and the "text" column in a format like:
10
  -
11
  ```python
12
+ > \<s\>\[INST\] "Bạn bè có phúc cùng chia."\[\/INST\] Bạn bè có phúc cùng chia. Có họa trốn sạch chạy đi phương nào? Tay trắng làm nên… mấy chục ngàn bạc nợ. \<\/s\>
13
+
14
  or
15
+
16
+ > \<s\>\[INST\] Ai bảo chăn trâu là khổ. \[\/INST\] Ai bảo chăn trâu là khổ. Tôi chăn chồng còn khổ hơn trâu. Trâu đi trâu biêt đường về. Chồng đi không biết dường về như trâu. \<\/s\>
17
 
18
  ## Training procedure
19
+ -
20
+ The following `bitsandbytes` quantization config was used during training:
21
+ - load_in_8bit: False
22
+ - load_in_4bit: True
23
+ - llm_int8_threshold: 6.0
24
+ - llm_int8_skip_modules: None
25
+ - llm_int8_enable_fp32_cpu_offload: False
26
+ - llm_int8_has_fp16_weight: False
27
+ - bnb_4bit_quant_type: nf4
28
+ - bnb_4bit_use_double_quant: False
29
+ - bnb_4bit_compute_dtype: float16
 
 
30
 
31
  ### Usage
32
  -