maiduchuy321 commited on
Commit
81a86fc
1 Parent(s): 0a81751

Add new SentenceTransformer model.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,950 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - vn
4
+ license: apache-2.0
5
+ library_name: sentence-transformers
6
+ tags:
7
+ - sentence-transformers
8
+ - sentence-similarity
9
+ - feature-extraction
10
+ - generated_from_trainer
11
+ - dataset_size:11711
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: bkai-foundation-models/vietnamese-bi-encoder
15
+ datasets: []
16
+ metrics:
17
+ - cosine_accuracy@1
18
+ - cosine_accuracy@3
19
+ - cosine_accuracy@5
20
+ - cosine_accuracy@10
21
+ - cosine_precision@1
22
+ - cosine_precision@3
23
+ - cosine_precision@5
24
+ - cosine_precision@10
25
+ - cosine_recall@1
26
+ - cosine_recall@3
27
+ - cosine_recall@5
28
+ - cosine_recall@10
29
+ - cosine_ndcg@10
30
+ - cosine_mrr@10
31
+ - cosine_map@100
32
+ widget:
33
+ - source_sentence: Số điện thoại đường dây nóng UBND huyện
34
+ sentences:
35
+ - Theo quy định tại Nghị định số 31/2013/NĐ-CP và Thông tư số 05/2013/TT-BLĐTBXH
36
+ thì bệnh binh nếu mắc thêm bệnh do chất độc hóa học thì được giám định tổng họp
37
+ để hưởng trợ cấp bệnh binh (không hưởng chế độ người hoạt động kháng chiến bị
38
+ nhiễm chất độc hóa học). Tuy nhiên quy định này chỉ áp dụng đối với trường hợp
39
+ lập hồ sơ từ ngày 01/6/2013 trở về sau. Đối với người đang hưởng 2 chế độ trước
40
+ 01/6/2013 thì sau ngày 31/12/2013 chuyển sang hưởng trợ cấp đối với bệnh binh
41
+ và trợ cấp đối với người hoạt động kháng chiến bị nhiễm chất độc hóa học suy giảm
42
+ khả năng lao động từ 41-60% (mức 3 mới).
43
+ - 'Theo quy định tại Khoản 1 Điều 6 Mục 1 Chương II Thông tư số 04/2016/TT-NHNN
44
+ ngày 15/4/2016 quy định về việc lưu ký và sử dụng giấy tờ có giá tại NHNN, hồ
45
+ sơ mở tài khoản lưu ký giấy tờ có giá gồm:(i) Giấy đề nghị mở tài khoản lưu ký
46
+ giấy tờ có giá theo phụ lục 1a/LK đính kèm Thông tư này;(ii) Bản đăng ký mẫu dấu,
47
+ chữ ký theo Phụ lục 1b/LK đính kèm Thông tư này;(iii) Các giấy tờ chứng minh việc
48
+ tổ chức mở tài khoản lưu ký giấy tờ có giá thành lập và hoạt động hợp pháp như:
49
+ Quyết định thành lập, giấy phép hoạt động, giấy chứng nhận đăng ký doanh nghiệp
50
+ hoặc các giấy tờ khác theo quy định của pháp luật;(iv) Các giấy tờ chứng minh
51
+ tư cách đại diện hợp pháp của người đại diện của chủ tài khoản kèm giấy chứng
52
+ minh nhân dân hoặc thẻ căn cước công dân hoặc hộ chiếu còn thời hạn của người
53
+ đó;(v) Trường hợp tổ chức mở tài khoản lưu ký thuộc đối tượng bắt buộc phải có
54
+ chữ ký Kế toán trưởng hoặc người phụ trách kế toán trên chứng từ kế toán giao
55
+ dịch với ngân hàng theo quy định của pháp luật thì ngoài các giấy tờ nêu tại điểm
56
+ 1, 2, 3, 4 nêu trên, hồ sơ mở tài khoản lưu ký giấy tờ có giá phải có quyết định
57
+ bổ nhiệm kèm giấy chứng minh nhân dân hoặc thẻ căn cước công dân hoặc hộ chiếu
58
+ còn thời hạn của kế toán trưởng (hoặc người phụ trách kế toán) của tổ chức mở
59
+ tài khoản lưu ký giấy tờ có giá.* Các giấy tờ quy định tại điểm 1,2 là bản chính,
60
+ các giấy tờ quy định tại điểm 3, 4, 5 là bản sao được cấp từ sổ gốc hoặc bản sao
61
+ có chứng thực hoặc bản sao kèm xuất trình bản chính để đối chiếu.'
62
+ - Khách hàng gọi đến số điện thoại đường dây nóng 1022
63
+ - source_sentence: 'Thủ tục: Thủ tục Điều chỉnh giấy phép thành lập Văn phòng đại
64
+ diện của thương nhân nước ngoài tại Việt Nam bao gồm hồ sơ gì ? '
65
+ sentences:
66
+ - 'a) Đơn đề nghị điều chỉnh Giấy phép thành lập Văn phòng đại diện theo mẫu của
67
+ Bộ Công Thương do đại diện có thẩm quyền của thương nhân nước ngoài ký;
68
+
69
+ b) Các tài liệu chứng minh về nội dung thay đổi, cụ thể:
70
+
71
+ - Trường hợp điều chỉnh Giấy phép do thay đổi tên gọi hoặc địa chỉ đặt trụ sở
72
+ của thương nhân nước ngoài: Bản sao tài liệu pháp lý do cơ quan có thẩm quyền
73
+ cấp chứng minh sự thay đổi tên gọi hoặc địa chỉ đặt trụ sở của thương nhân nước
74
+ ngoài.
75
+
76
+ - Trường hợp điều chỉnh Giấy phép do thay đổi người đứng đầu của Văn phòng đại
77
+ diện: Văn bản của thương nhân nước ngoài cử/bổ nhiệm người đứng đầu mới của Văn
78
+ phòng đại diện; Bản sao hộ chiếu hoặc giấy chứng minh nhân dân hoặc thẻ căn cước
79
+ công dân (nếu là người Việt Nam) hoặc bản sao hộ chiếu (nếu là người n��ớc ngoài)
80
+ của người đứng đầu mới của Văn phòng đại diện; Giấy tờ chứng minh người đứng đầu
81
+ cũ của Văn phòng đại diện đã thực hiện nghĩa vụ thuế thu nhập cá nhân đến thời
82
+ điểm thay đổi.
83
+
84
+  - Trường hợp điều chỉnh Giấy phép do thay đổi địa chỉ đặt trụ sở của Văn phòng
85
+ đại diện trong một tỉnh, thành phố trực thuộc Trung ương hoặc trong khu vực địa
86
+ lý thuộc phạm vi quản lý của một Ban Quản lý: Bản sao biên bản ghi nhớ hoặc thỏa
87
+ thuận thuê địa điểm hoặc bản sao tài liệu chứng minh thương nhân có quyền khai
88
+ thác, sử dụng địa điểm để đặt trụ sở Văn phòng đại điện; Bản sao tài liệu về địa
89
+ điểm dự kiến đặt trụ sở Văn phòng đại diện theo quy định tại Điều 28 Nghị định
90
+ 07/2016/NĐ-CP ngày 25/01/2016 của Chính phủ và quy định pháp luật có liên quan.
91
+
92
+ c) Bản chính Giấy phép thành lập Văn phòng đại diện.'
93
+ - ' Bạn phải làm thủ tục "cấp sửa đổi, bổ sung Giấy phép hoạt động tư vấn chuyên
94
+ ngành điện thuộc thẩm quyền cấp của địa phương" theo quy định tại Nghị định số 137/2013/NĐ-CP ngày
95
+ 21/10/2013 của Chính phủ, Nghị định số 08/2018/NĐ-CP ngày 15/01/2018 sửa đổi,
96
+ bổ sung một số Nghị định liên quan đến điều kiện đầu tư kinh doanh thuộc phạm
97
+ vi quản lý nhà nước của Bộ Công Thương; Thông tư số 36/2018/TT-BCT ngày 16/10/2018
98
+ của Bộ Trưởng Bộ Công Thương.
99
+
100
+ - Thành phần hồ sơ và các biểu mẫu: Được công khai tại Trung tâm Phục vụ hành
101
+ chính công tỉnh và Website: dichvucong.quangninh.gov.vn.- Hình thức nộp hồ sơ:
102
+ Bạn có thể lựa chọn một trong bốn hình thức: (1) Nộp trực tiếp ở Quầy Sở Công
103
+ Thương tại Trung tâm phục vụ Hành chính công tỉnh; (2). Nộp qua dịch vụ Bưu chính
104
+ công ích; (3). Nộp qua bưu điện (đơn vị làm dịch vụ bưu phát); (4). Nộp trực tuyến
105
+ (qua mạng) tại Website: dichvucong.quangninh.gov.vn.- Trong quá trình thực hiện,
106
+ đơn vị cần trao đổi hoặc cần hỗ trợ đề nghị liên lạc (trong giờ hành chính) theo
107
+ số điện thoại: 0203.3.634.669 hoặc 1900.558.826, máy lẻ (Sở Công Thương: 221;
108
+ 222) hoặc Email: hcc.sctqn@gmail.com để được hướng dẫn, trao đổi.'
109
+ - 'Đối tượng được xét tuyển vào trường dự bị đại học phải đáp ứng các điều kiện
110
+ sau đây:a) Đối tượng được xét tuyển Thí sinh thuộc đối tượng 01 của nhóm ưu tiên
111
+ 1(ƯT1) và khu vực 1(KV1) quy định tại Quy chế tuyển sinh đại học, cao đẳng hệ
112
+ chính quy hiện hành;b) Đối tượng được tuyển thẳng: Thí sinh người dân tộc thiểu
113
+ số rất ít người (theo quy định của Chính phủ) đã tốt nghiệp'
114
+ - source_sentence: "Thời hạn giải quyết thủ tục cấp lại chứng chỉ hành nghề dược đối\
115
+ \ với trường hợp bị mất của công dân Việt Nam, người nước ngoài, \nvà người Việt\
116
+ \ Nam định cư ở nước ngoài theo hình thức xét duyệt hồ sơ?"
117
+ sentences:
118
+ - 05 ngày làm việc kể từ ngày nhận đủ hồ sơ hợp lệ.
119
+ - Căn cứ Điều 18 Thông tư Số 66/2014/TT-BCA ngày 16/12/2014 của Bộ Công an quy định
120
+ Phương tiện PCCC được kiểm định chủng loại, mẫu mã và thông số kỹ thuật của phương
121
+ tiện, kết quả kiểm định được đánh giá và lập biên bản theo mẫu PC18, nếu đạt kết
122
+ quả sẽ được cấp giấy chứng nhận kiểm định theo mẫu PC19. Như vậy, biên bản kiểm
123
+ định được lập làm căn cứ để cấp giấy chứng nhận kiểm định cho lô phương tiện PCCC
124
+ khi đạt kết quả. Như vậy, đơn vị đề nghị kiểm định chỉ nhận được Giấy chứng nhận
125
+ kiểm định phương tiện PCCC nếu lô phương tiện đảm bảo các yêu cầu theo quy định.
126
+ - Không có
127
+ - source_sentence: Hồ sơ thông báo tập trung kinh tế gồm những giấy tờ gì?
128
+ sentences:
129
+ - 'Theo Khoản 2, Điều 7 Thông tư 25/2013/TT-NHNN: Từ 03 ngày làm việc đến 15 ngày
130
+ làm việc'
131
+ - 'Trình tự thực hiện Nộp hồ sơ TTHC
132
+
133
+ - Trường hợp nộp trực tiếp: Tổ chức, cá nhân nộp hồ sơ trực tiếp cho Sở Văn hoá,
134
+ Thể thao và Du lịch tại Trung tâm Phục vụ hành chính công tỉnh.
135
+
136
+ - Trường hợp gửi qua Dịch vụ Bưu chính: Tổ chức, cá nhân gửi hồ sơ qua dịch vụ
137
+ Bưu chính, nhân viên Bưu chính nộp hồ sơ trực tiếp cho Sở Văn hoá, Thể thao và
138
+ Du lịch tại Trung tâm Phục vục hành chính công tỉnh.
139
+
140
+ - Qua Dịch vụ công trực tuyến toàn trình: Tổ chức, cá nhân đăng ký/đăng nhập tài
141
+ khoản, xác thực định danh điện tử và thực hiện quy trình nộp hồ sơ trực tuyến
142
+ trên Cổng dịch vụ công quốc gia (http://dichvucong.gov.vn) và Hệ thống thông tin
143
+ giải quyết TTHC tỉnh (dichvucong.hagiang.gov.vn) theo hướng dẫn.'
144
+ - Theo Điều 34 Luật Cạnh tranh 2018, hồ sơ thông báo tập trung kinh tế bao gồm:Thông
145
+ báo tập trung kinh tế theo mẫu do Ủy ban Cạnh tranh Quốc gia ban hành;Dự thảo
146
+ nội dung thỏa thuận tập trung kinh tế hoặc dự thảo hợp đồng, biên bản
147
+ ghi nhớ việc tập trung kinh tế giữa các doanh nghiệp;Bản sao hợp lệ Giấy chứng
148
+ nhận đăng ký doanh nghiệp hoặc văn bản tương đương của từng doanh nghiệp tham
149
+ gia tập trung kinh tế;Báo cáo tài chính của từng doanh nghiệp tham gia tập trung
150
+ kinh tế trong 02 năm liên tiếp liền kề trước năm thông báo tập trung kinh tế hoặc
151
+ báo cáo tài chính từ thời điểm thành lập đến thời điểm thông báo tập trung kinh
152
+ tế đối với doanh nghiệp mới thành lập có xác nhận của tổ chức kiểm toán theo quy
153
+ định của pháp luật; Danh sách các công ty mẹ, công ty con, công ty thành viên,
154
+ chi nhánh, văn phòng đại diện và các đơn vị phụ thuộc khác của từng doanh nghiệp
155
+ tham gia tập trung kinh tế (nếu có);Danh sách các loại hàng hóa, dịch vụ mà từng
156
+ doanh nghiệp tham gia tập trung kinh tế đang kinh doanh;Thông tin về thị phần
157
+ trong lĩnh vực dự định tập trung kinh tế của từng doanh nghiệp tham gia tập trung
158
+ kinh tế trong 02 năm liên tiếp liền kề trước năm thông báo tập trung kinh tế;Phương
159
+ án khắc phục khả năng gây tác động hạn chế cạnh tranh của việc tập trung kinh
160
+ tế;Báo cáo đánh giá tác động tích cực của việc tập trung kinh tế và các biện pháp
161
+ tăng cường tác động tích cực của việc tập trung kinh tế.Ngoài ra, doanh nghiệp
162
+ nộp hồ sơ thông báo tập trung kinh tế chịu trách nhiệm về tính trung thực của
163
+ hồ sơ. Tài liệu trong hồ sơ bằng tiếng nước ngoài thì phải kèm theo bản dịch tiếng
164
+ Việt.
165
+ - source_sentence: Thời gian giải quyết thủ tục hành chính đối với 01 bộ hồ sơ quảng
166
+ cáo thực phẩm?
167
+ sentences:
168
+ - 'Căn cứ pháp lý: Điều 48, Nghị định số 59/2015/NĐ-CP ngày 18/6/2015; Khoản 2,
169
+ Điều 21, Nghị định số 46/2015/NĐ-CP ngày 12/5/2015. 1. Các Chức danh, gồm:- Trong
170
+ khung tên từng bản vẽ phải có tên, chữ ký của người trực tiếp thiết kế, người
171
+ kiểm tra thiết kế, chủ trì thiết kế, chủ nhiệm thiết kế, người đại diện theo pháp
172
+ luật của nhà thầu thiết kế; và người quản lý kỹ thuật nội bộ.- Trong tập dự toán
173
+ phải có tên của người lập, chủ trì lập dự toán và người đại diện theo pháp luật
174
+ của nhà thầu lập dự toán;2. Chứng chỉ hoạt động xây dựng yêu cầu đối với chủ trì
175
+ thiết kế, chủ nhiệm thiết kế và chủ trì lập dự toán.'
176
+ - 'Theo quy định tại khoản 5 Điều 27 Nghị định 15/2018/NĐ-CP: Trong thời hạn 10
177
+ ngày làm việc, kể từ ngày nhận đủ hồ sơ hợp lệ, cơ quan tiếp nhận hồ sơ có trách
178
+ nhiệm xem xét hồ sơ và trả kết quả theo Mẫu số 11 Phụ lục I ban hành kèm theo
179
+ Nghị định 15/2018/NĐ-CP. Thời hạn này được tính từ ngày đóng dấu đến của cơ quan
180
+ tiếp nhận hồ sơ nếu hồ sơ được gửi qua đường bưu điện hoặc ngày hồ sơ hoàn chỉnh
181
+ được tiếp nhận trên hệ thống dịch vụ công trực tuyến.Trong trường hợp không đồng
182
+ ý với nội dung quảng cáo của tổ chức, cá nhân hoặc yêu cầu sửa đổi, bổ sung, cơ
183
+ quan tiếp nhận hồ sơ phải có văn bản nêu rõ lý do và căn cứ pháp lý của việc yêu
184
+ cầu. Trong thời hạn 10 ngày làm việc kể từ khi nhận hồ sơ sửa đổi, bổ sung, cơ
185
+ quan tiếp nhận hồ sơ thẩm định hồ sơ và có văn bản trả lời. Sau 90 ngày làm việc
186
+ kể từ khi có công văn yêu cầu sửa đổi, bổ sung nếu tổ chức, cá nhân không sửa
187
+ đổi, bổ sung thì hồ sơ không còn giá trị.'
188
+ - 'Ngoài các hồ sơ, tài liệu gửi 1 lần và gửi hàng năm theo chế độ quy định, chủ
189
+ đầu tư gửi KBNN các hồ sơ, tài liệu có liên quan theo quy định tại tiết 1.5.1,
190
+ mục 1.5, và 1.5.1, mục 1.6, điểm 1, phần II, Thông tư số 113/2008/TT-BTC ngày
191
+ 27/11/2008 của BTC cụ thể: Hồ sơ cam kết chi thường xuyên:- Hợp đồng mua bán hàng
192
+ hoá, dịch vụ có giá trị từ 100 triệu đồng trở lên (gửi lần đầu hoặc khi có điều
193
+ chỉnh hợp đồng);- Đề nghị cam kết chi hoặc đề nghị điều chỉnh cam kết chi.Hồ sơ
194
+ cam kết chi đầu tư: - Hợp đồng có giá trị từ 500 triệu đồng trở lên (gửi lần đầu
195
+ khi đề nghị cam kết chi hoặc gửi khi có điều chỉnh hợp đồng);- Đề nghị cam kết
196
+ chi hoặc đề nghị điều chỉnh cam kết chi.'
197
+ pipeline_tag: sentence-similarity
198
+ model-index:
199
+ - name: vietnamese-bi-encoder-fine-tuning-for-law-chatbot
200
+ results:
201
+ - task:
202
+ type: information-retrieval
203
+ name: Information Retrieval
204
+ dataset:
205
+ name: dim 768
206
+ type: dim_768
207
+ metrics:
208
+ - type: cosine_accuracy@1
209
+ value: 0.5192012288786483
210
+ name: Cosine Accuracy@1
211
+ - type: cosine_accuracy@3
212
+ value: 0.7035330261136713
213
+ name: Cosine Accuracy@3
214
+ - type: cosine_accuracy@5
215
+ value: 0.7703533026113671
216
+ name: Cosine Accuracy@5
217
+ - type: cosine_accuracy@10
218
+ value: 0.8433179723502304
219
+ name: Cosine Accuracy@10
220
+ - type: cosine_precision@1
221
+ value: 0.5192012288786483
222
+ name: Cosine Precision@1
223
+ - type: cosine_precision@3
224
+ value: 0.23451100870455707
225
+ name: Cosine Precision@3
226
+ - type: cosine_precision@5
227
+ value: 0.15407066052227342
228
+ name: Cosine Precision@5
229
+ - type: cosine_precision@10
230
+ value: 0.08433179723502303
231
+ name: Cosine Precision@10
232
+ - type: cosine_recall@1
233
+ value: 0.5192012288786483
234
+ name: Cosine Recall@1
235
+ - type: cosine_recall@3
236
+ value: 0.7035330261136713
237
+ name: Cosine Recall@3
238
+ - type: cosine_recall@5
239
+ value: 0.7703533026113671
240
+ name: Cosine Recall@5
241
+ - type: cosine_recall@10
242
+ value: 0.8433179723502304
243
+ name: Cosine Recall@10
244
+ - type: cosine_ndcg@10
245
+ value: 0.6784984111685612
246
+ name: Cosine Ndcg@10
247
+ - type: cosine_mrr@10
248
+ value: 0.6260898983249218
249
+ name: Cosine Mrr@10
250
+ - type: cosine_map@100
251
+ value: 0.6315228861090326
252
+ name: Cosine Map@100
253
+ - task:
254
+ type: information-retrieval
255
+ name: Information Retrieval
256
+ dataset:
257
+ name: dim 512
258
+ type: dim_512
259
+ metrics:
260
+ - type: cosine_accuracy@1
261
+ value: 0.5099846390168971
262
+ name: Cosine Accuracy@1
263
+ - type: cosine_accuracy@3
264
+ value: 0.705837173579109
265
+ name: Cosine Accuracy@3
266
+ - type: cosine_accuracy@5
267
+ value: 0.7642089093701997
268
+ name: Cosine Accuracy@5
269
+ - type: cosine_accuracy@10
270
+ value: 0.8402457757296466
271
+ name: Cosine Accuracy@10
272
+ - type: cosine_precision@1
273
+ value: 0.5099846390168971
274
+ name: Cosine Precision@1
275
+ - type: cosine_precision@3
276
+ value: 0.23527905785970302
277
+ name: Cosine Precision@3
278
+ - type: cosine_precision@5
279
+ value: 0.15284178187403993
280
+ name: Cosine Precision@5
281
+ - type: cosine_precision@10
282
+ value: 0.08402457757296465
283
+ name: Cosine Precision@10
284
+ - type: cosine_recall@1
285
+ value: 0.5099846390168971
286
+ name: Cosine Recall@1
287
+ - type: cosine_recall@3
288
+ value: 0.705837173579109
289
+ name: Cosine Recall@3
290
+ - type: cosine_recall@5
291
+ value: 0.7642089093701997
292
+ name: Cosine Recall@5
293
+ - type: cosine_recall@10
294
+ value: 0.8402457757296466
295
+ name: Cosine Recall@10
296
+ - type: cosine_ndcg@10
297
+ value: 0.6730215261533721
298
+ name: Cosine Ndcg@10
299
+ - type: cosine_mrr@10
300
+ value: 0.6197422158827693
301
+ name: Cosine Mrr@10
302
+ - type: cosine_map@100
303
+ value: 0.625183882393767
304
+ name: Cosine Map@100
305
+ - task:
306
+ type: information-retrieval
307
+ name: Information Retrieval
308
+ dataset:
309
+ name: dim 256
310
+ type: dim_256
311
+ metrics:
312
+ - type: cosine_accuracy@1
313
+ value: 0.5023041474654378
314
+ name: Cosine Accuracy@1
315
+ - type: cosine_accuracy@3
316
+ value: 0.695084485407066
317
+ name: Cosine Accuracy@3
318
+ - type: cosine_accuracy@5
319
+ value: 0.7634408602150538
320
+ name: Cosine Accuracy@5
321
+ - type: cosine_accuracy@10
322
+ value: 0.8348694316436251
323
+ name: Cosine Accuracy@10
324
+ - type: cosine_precision@1
325
+ value: 0.5023041474654378
326
+ name: Cosine Precision@1
327
+ - type: cosine_precision@3
328
+ value: 0.23169482846902198
329
+ name: Cosine Precision@3
330
+ - type: cosine_precision@5
331
+ value: 0.15268817204301074
332
+ name: Cosine Precision@5
333
+ - type: cosine_precision@10
334
+ value: 0.0834869431643625
335
+ name: Cosine Precision@10
336
+ - type: cosine_recall@1
337
+ value: 0.5023041474654378
338
+ name: Cosine Recall@1
339
+ - type: cosine_recall@3
340
+ value: 0.695084485407066
341
+ name: Cosine Recall@3
342
+ - type: cosine_recall@5
343
+ value: 0.7634408602150538
344
+ name: Cosine Recall@5
345
+ - type: cosine_recall@10
346
+ value: 0.8348694316436251
347
+ name: Cosine Recall@10
348
+ - type: cosine_ndcg@10
349
+ value: 0.6662572650809209
350
+ name: Cosine Ndcg@10
351
+ - type: cosine_mrr@10
352
+ value: 0.6124750079243174
353
+ name: Cosine Mrr@10
354
+ - type: cosine_map@100
355
+ value: 0.6181528055332479
356
+ name: Cosine Map@100
357
+ - task:
358
+ type: information-retrieval
359
+ name: Information Retrieval
360
+ dataset:
361
+ name: dim 128
362
+ type: dim_128
363
+ metrics:
364
+ - type: cosine_accuracy@1
365
+ value: 0.4838709677419355
366
+ name: Cosine Accuracy@1
367
+ - type: cosine_accuracy@3
368
+ value: 0.6674347158218126
369
+ name: Cosine Accuracy@3
370
+ - type: cosine_accuracy@5
371
+ value: 0.7480798771121352
372
+ name: Cosine Accuracy@5
373
+ - type: cosine_accuracy@10
374
+ value: 0.8210445468509985
375
+ name: Cosine Accuracy@10
376
+ - type: cosine_precision@1
377
+ value: 0.4838709677419355
378
+ name: Cosine Precision@1
379
+ - type: cosine_precision@3
380
+ value: 0.22247823860727084
381
+ name: Cosine Precision@3
382
+ - type: cosine_precision@5
383
+ value: 0.14961597542242702
384
+ name: Cosine Precision@5
385
+ - type: cosine_precision@10
386
+ value: 0.08210445468509983
387
+ name: Cosine Precision@10
388
+ - type: cosine_recall@1
389
+ value: 0.4838709677419355
390
+ name: Cosine Recall@1
391
+ - type: cosine_recall@3
392
+ value: 0.6674347158218126
393
+ name: Cosine Recall@3
394
+ - type: cosine_recall@5
395
+ value: 0.7480798771121352
396
+ name: Cosine Recall@5
397
+ - type: cosine_recall@10
398
+ value: 0.8210445468509985
399
+ name: Cosine Recall@10
400
+ - type: cosine_ndcg@10
401
+ value: 0.6486762179767267
402
+ name: Cosine Ndcg@10
403
+ - type: cosine_mrr@10
404
+ value: 0.5938781605832305
405
+ name: Cosine Mrr@10
406
+ - type: cosine_map@100
407
+ value: 0.6001217679704338
408
+ name: Cosine Map@100
409
+ - task:
410
+ type: information-retrieval
411
+ name: Information Retrieval
412
+ dataset:
413
+ name: dim 64
414
+ type: dim_64
415
+ metrics:
416
+ - type: cosine_accuracy@1
417
+ value: 0.44623655913978494
418
+ name: Cosine Accuracy@1
419
+ - type: cosine_accuracy@3
420
+ value: 0.6382488479262672
421
+ name: Cosine Accuracy@3
422
+ - type: cosine_accuracy@5
423
+ value: 0.7158218125960062
424
+ name: Cosine Accuracy@5
425
+ - type: cosine_accuracy@10
426
+ value: 0.7987711213517665
427
+ name: Cosine Accuracy@10
428
+ - type: cosine_precision@1
429
+ value: 0.44623655913978494
430
+ name: Cosine Precision@1
431
+ - type: cosine_precision@3
432
+ value: 0.21274961597542244
433
+ name: Cosine Precision@3
434
+ - type: cosine_precision@5
435
+ value: 0.1431643625192012
436
+ name: Cosine Precision@5
437
+ - type: cosine_precision@10
438
+ value: 0.07987711213517665
439
+ name: Cosine Precision@10
440
+ - type: cosine_recall@1
441
+ value: 0.44623655913978494
442
+ name: Cosine Recall@1
443
+ - type: cosine_recall@3
444
+ value: 0.6382488479262672
445
+ name: Cosine Recall@3
446
+ - type: cosine_recall@5
447
+ value: 0.7158218125960062
448
+ name: Cosine Recall@5
449
+ - type: cosine_recall@10
450
+ value: 0.7987711213517665
451
+ name: Cosine Recall@10
452
+ - type: cosine_ndcg@10
453
+ value: 0.6178085159779514
454
+ name: Cosine Ndcg@10
455
+ - type: cosine_mrr@10
456
+ value: 0.5604372394118942
457
+ name: Cosine Mrr@10
458
+ - type: cosine_map@100
459
+ value: 0.5666545014535384
460
+ name: Cosine Map@100
461
+ ---
462
+
463
+ # vietnamese-bi-encoder-fine-tuning-for-law-chatbot
464
+
465
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
466
+
467
+ ## Model Details
468
+
469
+ ### Model Description
470
+ - **Model Type:** Sentence Transformer
471
+ - **Base model:** [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) <!-- at revision 84f9d9ada0d1a3c37557398b9ae9fcedcdf40be0 -->
472
+ - **Maximum Sequence Length:** 256 tokens
473
+ - **Output Dimensionality:** 768 tokens
474
+ - **Similarity Function:** Cosine Similarity
475
+ <!-- - **Training Dataset:** Unknown -->
476
+ - **Language:** vn
477
+ - **License:** apache-2.0
478
+
479
+ ### Model Sources
480
+
481
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
482
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
483
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
484
+
485
+ ### Full Model Architecture
486
+
487
+ ```
488
+ SentenceTransformer(
489
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
490
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
491
+ )
492
+ ```
493
+
494
+ ## Usage
495
+
496
+ ### Direct Usage (Sentence Transformers)
497
+
498
+ First install the Sentence Transformers library:
499
+
500
+ ```bash
501
+ pip install -U sentence-transformers
502
+ ```
503
+
504
+ Then you can load this model and run inference.
505
+ ```python
506
+ from sentence_transformers import SentenceTransformer
507
+
508
+ # Download from the 🤗 Hub
509
+ model = SentenceTransformer("maiduchuy321/vietnamese-bi-encoder-fine-tuning-for-law-chatbot")
510
+ # Run inference
511
+ sentences = [
512
+ 'Thời gian giải quyết thủ tục hành chính đối với 01 bộ hồ sơ quảng cáo thực phẩm?',
513
+ 'Theo quy định tại khoản 5 Điều 27 Nghị định 15/2018/NĐ-CP: Trong thời hạn 10 ngày làm việc, kể từ ngày nhận đủ hồ sơ hợp lệ, cơ quan tiếp nhận hồ sơ có trách nhiệm xem xét hồ sơ và trả kết quả theo Mẫu số 11 Phụ lục I ban hành kèm theo Nghị định 15/2018/NĐ-CP. Thời hạn này được tính từ ngày đóng dấu đến của cơ quan tiếp nhận hồ sơ nếu hồ sơ được gửi qua đường bưu điện hoặc ngày hồ sơ hoàn chỉnh được tiếp nhận trên hệ thống dịch vụ công trực tuyến.Trong trường hợp không đồng ý với nội dung quảng cáo của tổ chức, cá nhân hoặc yêu cầu sửa đổi, bổ sung, cơ quan tiếp nhận hồ sơ phải có văn bản nêu rõ lý do và căn cứ pháp lý của việc yêu cầu. Trong thời hạn 10 ngày làm việc kể từ khi nhận hồ sơ sửa đổi, bổ sung, cơ quan tiếp nhận hồ sơ thẩm định hồ sơ và có văn bản trả lời. Sau 90 ngày làm việc kể từ khi có công văn yêu cầu sửa đổi, bổ sung nếu tổ chức, cá nhân không sửa đổi, bổ sung thì hồ sơ không còn giá trị.',
514
+ 'Ngoài các hồ sơ, tài liệu gửi 1 lần và gửi hàng năm theo chế độ quy định, chủ đầu tư gửi KBNN các hồ sơ, tài liệu có liên quan theo quy định tại tiết 1.5.1, mục 1.5, và 1.5.1, mục 1.6, điểm 1, phần II, Thông tư số 113/2008/TT-BTC ngày 27/11/2008 của BTC cụ thể: Hồ sơ cam kết chi thường xuyên:- Hợp đồng mua bán hàng hoá, dịch vụ có giá trị từ 100 triệu đồng trở lên (gửi lần đầu hoặc khi có điều chỉnh hợp đồng);- Đề nghị cam kết chi hoặc đề nghị điều chỉnh cam kết chi.Hồ sơ cam kết chi đầu tư: - Hợp đồng có giá trị từ 500 triệu đồng trở lên (gửi lần đầu khi đề nghị cam kết chi hoặc gửi khi có điều chỉnh hợp đồng);- Đề nghị cam kết chi hoặc đề nghị điều chỉnh cam kết chi.',
515
+ ]
516
+ embeddings = model.encode(sentences)
517
+ print(embeddings.shape)
518
+ # [3, 768]
519
+
520
+ # Get the similarity scores for the embeddings
521
+ similarities = model.similarity(embeddings, embeddings)
522
+ print(similarities.shape)
523
+ # [3, 3]
524
+ ```
525
+
526
+ <!--
527
+ ### Direct Usage (Transformers)
528
+
529
+ <details><summary>Click to see the direct usage in Transformers</summary>
530
+
531
+ </details>
532
+ -->
533
+
534
+ <!--
535
+ ### Downstream Usage (Sentence Transformers)
536
+
537
+ You can finetune this model on your own dataset.
538
+
539
+ <details><summary>Click to expand</summary>
540
+
541
+ </details>
542
+ -->
543
+
544
+ <!--
545
+ ### Out-of-Scope Use
546
+
547
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
548
+ -->
549
+
550
+ ## Evaluation
551
+
552
+ ### Metrics
553
+
554
+ #### Information Retrieval
555
+ * Dataset: `dim_768`
556
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
557
+
558
+ | Metric | Value |
559
+ |:--------------------|:-----------|
560
+ | cosine_accuracy@1 | 0.5192 |
561
+ | cosine_accuracy@3 | 0.7035 |
562
+ | cosine_accuracy@5 | 0.7704 |
563
+ | cosine_accuracy@10 | 0.8433 |
564
+ | cosine_precision@1 | 0.5192 |
565
+ | cosine_precision@3 | 0.2345 |
566
+ | cosine_precision@5 | 0.1541 |
567
+ | cosine_precision@10 | 0.0843 |
568
+ | cosine_recall@1 | 0.5192 |
569
+ | cosine_recall@3 | 0.7035 |
570
+ | cosine_recall@5 | 0.7704 |
571
+ | cosine_recall@10 | 0.8433 |
572
+ | cosine_ndcg@10 | 0.6785 |
573
+ | cosine_mrr@10 | 0.6261 |
574
+ | **cosine_map@100** | **0.6315** |
575
+
576
+ #### Information Retrieval
577
+ * Dataset: `dim_512`
578
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
579
+
580
+ | Metric | Value |
581
+ |:--------------------|:-----------|
582
+ | cosine_accuracy@1 | 0.51 |
583
+ | cosine_accuracy@3 | 0.7058 |
584
+ | cosine_accuracy@5 | 0.7642 |
585
+ | cosine_accuracy@10 | 0.8402 |
586
+ | cosine_precision@1 | 0.51 |
587
+ | cosine_precision@3 | 0.2353 |
588
+ | cosine_precision@5 | 0.1528 |
589
+ | cosine_precision@10 | 0.084 |
590
+ | cosine_recall@1 | 0.51 |
591
+ | cosine_recall@3 | 0.7058 |
592
+ | cosine_recall@5 | 0.7642 |
593
+ | cosine_recall@10 | 0.8402 |
594
+ | cosine_ndcg@10 | 0.673 |
595
+ | cosine_mrr@10 | 0.6197 |
596
+ | **cosine_map@100** | **0.6252** |
597
+
598
+ #### Information Retrieval
599
+ * Dataset: `dim_256`
600
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
601
+
602
+ | Metric | Value |
603
+ |:--------------------|:-----------|
604
+ | cosine_accuracy@1 | 0.5023 |
605
+ | cosine_accuracy@3 | 0.6951 |
606
+ | cosine_accuracy@5 | 0.7634 |
607
+ | cosine_accuracy@10 | 0.8349 |
608
+ | cosine_precision@1 | 0.5023 |
609
+ | cosine_precision@3 | 0.2317 |
610
+ | cosine_precision@5 | 0.1527 |
611
+ | cosine_precision@10 | 0.0835 |
612
+ | cosine_recall@1 | 0.5023 |
613
+ | cosine_recall@3 | 0.6951 |
614
+ | cosine_recall@5 | 0.7634 |
615
+ | cosine_recall@10 | 0.8349 |
616
+ | cosine_ndcg@10 | 0.6663 |
617
+ | cosine_mrr@10 | 0.6125 |
618
+ | **cosine_map@100** | **0.6182** |
619
+
620
+ #### Information Retrieval
621
+ * Dataset: `dim_128`
622
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
623
+
624
+ | Metric | Value |
625
+ |:--------------------|:-----------|
626
+ | cosine_accuracy@1 | 0.4839 |
627
+ | cosine_accuracy@3 | 0.6674 |
628
+ | cosine_accuracy@5 | 0.7481 |
629
+ | cosine_accuracy@10 | 0.821 |
630
+ | cosine_precision@1 | 0.4839 |
631
+ | cosine_precision@3 | 0.2225 |
632
+ | cosine_precision@5 | 0.1496 |
633
+ | cosine_precision@10 | 0.0821 |
634
+ | cosine_recall@1 | 0.4839 |
635
+ | cosine_recall@3 | 0.6674 |
636
+ | cosine_recall@5 | 0.7481 |
637
+ | cosine_recall@10 | 0.821 |
638
+ | cosine_ndcg@10 | 0.6487 |
639
+ | cosine_mrr@10 | 0.5939 |
640
+ | **cosine_map@100** | **0.6001** |
641
+
642
+ #### Information Retrieval
643
+ * Dataset: `dim_64`
644
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
645
+
646
+ | Metric | Value |
647
+ |:--------------------|:-----------|
648
+ | cosine_accuracy@1 | 0.4462 |
649
+ | cosine_accuracy@3 | 0.6382 |
650
+ | cosine_accuracy@5 | 0.7158 |
651
+ | cosine_accuracy@10 | 0.7988 |
652
+ | cosine_precision@1 | 0.4462 |
653
+ | cosine_precision@3 | 0.2127 |
654
+ | cosine_precision@5 | 0.1432 |
655
+ | cosine_precision@10 | 0.0799 |
656
+ | cosine_recall@1 | 0.4462 |
657
+ | cosine_recall@3 | 0.6382 |
658
+ | cosine_recall@5 | 0.7158 |
659
+ | cosine_recall@10 | 0.7988 |
660
+ | cosine_ndcg@10 | 0.6178 |
661
+ | cosine_mrr@10 | 0.5604 |
662
+ | **cosine_map@100** | **0.5667** |
663
+
664
+ <!--
665
+ ## Bias, Risks and Limitations
666
+
667
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
668
+ -->
669
+
670
+ <!--
671
+ ### Recommendations
672
+
673
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
674
+ -->
675
+
676
+ ## Training Details
677
+
678
+ ### Training Dataset
679
+
680
+ #### Unnamed Dataset
681
+
682
+
683
+ * Size: 11,711 training samples
684
+ * Columns: <code>Câu hỏi</code> and <code>Câu trả lời</code>
685
+ * Approximate statistics based on the first 1000 samples:
686
+ | | Câu hỏi | Câu trả lời |
687
+ |:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
688
+ | type | string | string |
689
+ | details | <ul><li>min: 6 tokens</li><li>mean: 38.26 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 143.99 tokens</li><li>max: 256 tokens</li></ul> |
690
+ * Samples:
691
+ | Câu hỏi | Câu trả lời |
692
+ |:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
693
+ | <code>Phòng thử nghiệm của tổ chức, doanh nghiệp chỉ thực hiện hoạt động thử nghiệm phục vụ kiểm soát chất lượng sản phẩm do chính tổ chức, doanh nghiệp sản xuất ra thì có phải thực hiện đăng ký hoạt động thử nghiệm theo Nghị định số 107/2016/NĐ-CP không?</code> | <code>Tại khoản 1 Điều 2 Nghị định số 107/2016/NĐ-CP quy định Nghị định này áp dụng đối với các tổ chức, doanh nghiệp có hoạt động kinh doanh dịch vụ đánh giá sự phù hợp (thử nghiệm, chứng nhận, giám định, kiểm định) trên lãnh thổ Việt Nam. Do đó, trong trường hợp này, tổ chức, doanh nghiệp không phải thực hiện đăng ký hoạt động thử nghiệm theo quy định tại Nghị định số 107/2016/NĐ-CP. Trường hợp, tổ chức, doanh nghiệp có nhu cầu cung cấp dịch vụ thử nghiệm thì phải thực hiện đăng ký hoạt động thử nghiệm theo quy định tại Nghị định số 107/2016/NĐ-CP.</code> |
694
+ | <code>Sửa đổi, bổ sung Giấy chứng nhận đủ điều kiện hoạt động điểm cung cấp dịch vụ trò chơi điện tử công cộng trong trường hợp nào?; cách thức thực hiện như thế nào; thời gian thực thực hiện trong bao lâu?</code> | <code>Sửa đổi, bổ sung trong thời hạn hiệu lực của Giấy chứng nhận đủ điều kiện hoạt động điểm cung cấp dịch vụ trò chơi điện tử công cộng, chủ điểm cung cấp dịch vụ trò chơi điện tử công cộng phải làm thủ tục sửa đổi, bổ sung giấy chứng nhận đủ điều kiện hoạt động điểm cung cấp dịch vụ trò chơi điện tử công cộng đã được cấp thuộc một trong các trường hợp sau đây: Thay đổi tên điểm cung cấp dịch vụ trò chơi điện tử công cộng; Thay đổi chủ điểm cung cấp dịch vụ trò chơi điện tử công cộng đối với trường hợp chủ điểm là cá nhân hoặc thay đổi người quản lý trực tiếp điểm cung cấp dịch vụ trò chơi điện tử công cộng đối với trường hợp chủ điểm là tổ chức, doanh nghiệp; Cách thức thực hiện: cá nhân có thể gửi hồ sơ trực tiếp hoặc gửi trực tuyến qua cổng dịch vụ công tỉnh Hà Giang; Thời gian thực hiện trong 05 ngày làm việc, kể từ ngày nhận đủ hồ sơ hợp lệ.</code> |
695
+ | <code>Đối với trường hợp đại lý đã được cấp trước đây có được phép hoạt động ��ến hết thời hạn trong Giấy chứng nhận đủ điều kiện kinh doanh dược không? Hay hướng dẫn các đại lý chuyển đổi qua quầy thuốc ngay khi Nghị định 54/2017/NĐ-CP ngày 08/5/2017 của Chính phủ có hiệu lực? Theo quy định của Luật Dược 2016 không còn loại hình bán lẻ thuốc là đại lý thuốc.</code> | <code>Khoản 1 Điều 115 Luật dược quy định về điều khoản chuyển tiếp, theo đó:“Cơ sở kinh doanh dược đã được cấp Giấy chứng nhận đủ điều kiện kinh doanh dượctheo quy định của Luật dược 34/2005/QH11 được tiếp tục kinh doanh thuốc cho đếnhết thời hạn hiệu lực của Giấy chứng nhận đủ điều kiện kinh doanh dược”. Nhưvậy, các đại lý bán lẻ thuốc đã được cấp Giấy chứng nhận đủ điều kiện kinhdoanh dược được phép hoạt động đến hết thời hạn ghi trên Giấy chứng nhận đủđiều kiện kinh doanh dược. Việc các đại lý muốn chuyển đổi thành quầy thuốc thìphải đáp ứng các quy định về điều kiện và địa bàn hoạt động đối với quầy thuốc</code> |
696
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
697
+ ```json
698
+ {
699
+ "loss": "MultipleNegativesRankingLoss",
700
+ "matryoshka_dims": [
701
+ 768,
702
+ 512,
703
+ 256,
704
+ 128,
705
+ 64
706
+ ],
707
+ "matryoshka_weights": [
708
+ 1,
709
+ 1,
710
+ 1,
711
+ 1,
712
+ 1
713
+ ],
714
+ "n_dims_per_step": -1
715
+ }
716
+ ```
717
+
718
+ ### Training Hyperparameters
719
+ #### Non-Default Hyperparameters
720
+
721
+ - `eval_strategy`: epoch
722
+ - `per_device_train_batch_size`: 32
723
+ - `per_device_eval_batch_size`: 16
724
+ - `gradient_accumulation_steps`: 32
725
+ - `learning_rate`: 2e-05
726
+ - `num_train_epochs`: 15
727
+ - `lr_scheduler_type`: cosine
728
+ - `warmup_ratio`: 0.1
729
+ - `fp16`: True
730
+ - `tf32`: False
731
+ - `load_best_model_at_end`: True
732
+ - `optim`: adamw_torch_fused
733
+ - `batch_sampler`: no_duplicates
734
+
735
+ #### All Hyperparameters
736
+ <details><summary>Click to expand</summary>
737
+
738
+ - `overwrite_output_dir`: False
739
+ - `do_predict`: False
740
+ - `eval_strategy`: epoch
741
+ - `prediction_loss_only`: True
742
+ - `per_device_train_batch_size`: 32
743
+ - `per_device_eval_batch_size`: 16
744
+ - `per_gpu_train_batch_size`: None
745
+ - `per_gpu_eval_batch_size`: None
746
+ - `gradient_accumulation_steps`: 32
747
+ - `eval_accumulation_steps`: None
748
+ - `learning_rate`: 2e-05
749
+ - `weight_decay`: 0.0
750
+ - `adam_beta1`: 0.9
751
+ - `adam_beta2`: 0.999
752
+ - `adam_epsilon`: 1e-08
753
+ - `max_grad_norm`: 1.0
754
+ - `num_train_epochs`: 15
755
+ - `max_steps`: -1
756
+ - `lr_scheduler_type`: cosine
757
+ - `lr_scheduler_kwargs`: {}
758
+ - `warmup_ratio`: 0.1
759
+ - `warmup_steps`: 0
760
+ - `log_level`: passive
761
+ - `log_level_replica`: warning
762
+ - `log_on_each_node`: True
763
+ - `logging_nan_inf_filter`: True
764
+ - `save_safetensors`: True
765
+ - `save_on_each_node`: False
766
+ - `save_only_model`: False
767
+ - `restore_callback_states_from_checkpoint`: False
768
+ - `no_cuda`: False
769
+ - `use_cpu`: False
770
+ - `use_mps_device`: False
771
+ - `seed`: 42
772
+ - `data_seed`: None
773
+ - `jit_mode_eval`: False
774
+ - `use_ipex`: False
775
+ - `bf16`: False
776
+ - `fp16`: True
777
+ - `fp16_opt_level`: O1
778
+ - `half_precision_backend`: auto
779
+ - `bf16_full_eval`: False
780
+ - `fp16_full_eval`: False
781
+ - `tf32`: False
782
+ - `local_rank`: 0
783
+ - `ddp_backend`: None
784
+ - `tpu_num_cores`: None
785
+ - `tpu_metrics_debug`: False
786
+ - `debug`: []
787
+ - `dataloader_drop_last`: False
788
+ - `dataloader_num_workers`: 0
789
+ - `dataloader_prefetch_factor`: None
790
+ - `past_index`: -1
791
+ - `disable_tqdm`: False
792
+ - `remove_unused_columns`: True
793
+ - `label_names`: None
794
+ - `load_best_model_at_end`: True
795
+ - `ignore_data_skip`: False
796
+ - `fsdp`: []
797
+ - `fsdp_min_num_params`: 0
798
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
799
+ - `fsdp_transformer_layer_cls_to_wrap`: None
800
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
801
+ - `deepspeed`: None
802
+ - `label_smoothing_factor`: 0.0
803
+ - `optim`: adamw_torch_fused
804
+ - `optim_args`: None
805
+ - `adafactor`: False
806
+ - `group_by_length`: False
807
+ - `length_column_name`: length
808
+ - `ddp_find_unused_parameters`: None
809
+ - `ddp_bucket_cap_mb`: None
810
+ - `ddp_broadcast_buffers`: False
811
+ - `dataloader_pin_memory`: True
812
+ - `dataloader_persistent_workers`: False
813
+ - `skip_memory_metrics`: True
814
+ - `use_legacy_prediction_loop`: False
815
+ - `push_to_hub`: False
816
+ - `resume_from_checkpoint`: None
817
+ - `hub_model_id`: None
818
+ - `hub_strategy`: every_save
819
+ - `hub_private_repo`: False
820
+ - `hub_always_push`: False
821
+ - `gradient_checkpointing`: False
822
+ - `gradient_checkpointing_kwargs`: None
823
+ - `include_inputs_for_metrics`: False
824
+ - `eval_do_concat_batches`: True
825
+ - `fp16_backend`: auto
826
+ - `push_to_hub_model_id`: None
827
+ - `push_to_hub_organization`: None
828
+ - `mp_parameters`:
829
+ - `auto_find_batch_size`: False
830
+ - `full_determinism`: False
831
+ - `torchdynamo`: None
832
+ - `ray_scope`: last
833
+ - `ddp_timeout`: 1800
834
+ - `torch_compile`: False
835
+ - `torch_compile_backend`: None
836
+ - `torch_compile_mode`: None
837
+ - `dispatch_batches`: None
838
+ - `split_batches`: None
839
+ - `include_tokens_per_second`: False
840
+ - `include_num_input_tokens_seen`: False
841
+ - `neftune_noise_alpha`: None
842
+ - `optim_target_modules`: None
843
+ - `batch_eval_metrics`: False
844
+ - `batch_sampler`: no_duplicates
845
+ - `multi_dataset_batch_sampler`: proportional
846
+
847
+ </details>
848
+
849
+ ### Training Logs
850
+ | Epoch | Step | Training Loss | dim_128_cosine_map@100 | dim_256_cosine_map@100 | dim_512_cosine_map@100 | dim_64_cosine_map@100 | dim_768_cosine_map@100 |
851
+ |:-----------:|:-------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|:----------------------:|
852
+ | 0.8743 | 10 | 3.9132 | - | - | - | - | - |
853
+ | 0.9617 | 11 | - | 0.4759 | 0.5066 | 0.5205 | 0.4333 | 0.5227 |
854
+ | 1.7486 | 20 | 2.3057 | - | - | - | - | - |
855
+ | 1.9235 | 22 | - | 0.5345 | 0.5541 | 0.5686 | 0.4968 | 0.5756 |
856
+ | 2.6230 | 30 | 1.3986 | - | - | - | - | - |
857
+ | 2.9727 | 34 | - | 0.5586 | 0.5826 | 0.5958 | 0.5223 | 0.5979 |
858
+ | 3.4973 | 40 | 0.954 | - | - | - | - | - |
859
+ | 3.9344 | 45 | - | 0.5739 | 0.5948 | 0.6079 | 0.5370 | 0.6066 |
860
+ | 4.3716 | 50 | 0.6417 | - | - | - | - | - |
861
+ | 4.9836 | 57 | - | 0.5865 | 0.6066 | 0.6135 | 0.5488 | 0.6152 |
862
+ | 5.2459 | 60 | 0.4711 | - | - | - | - | - |
863
+ | 5.9454 | 68 | - | 0.5898 | 0.6140 | 0.6170 | 0.5572 | 0.6196 |
864
+ | 6.1202 | 70 | 0.3451 | - | - | - | - | - |
865
+ | 6.9945 | 80 | 0.2679 | 0.5957 | 0.6118 | 0.6212 | 0.5627 | 0.6210 |
866
+ | 7.8689 | 90 | 0.2066 | - | - | - | - | - |
867
+ | 7.9563 | 91 | - | 0.5973 | 0.6140 | 0.6253 | 0.5643 | 0.6268 |
868
+ | 8.7432 | 100 | 0.1844 | - | - | - | - | - |
869
+ | 8.9180 | 102 | - | 0.5971 | 0.6189 | 0.6271 | 0.5621 | 0.6281 |
870
+ | 9.6175 | 110 | 0.1604 | - | - | - | - | - |
871
+ | 9.9672 | 114 | - | 0.5993 | 0.6190 | 0.6273 | 0.5646 | 0.6307 |
872
+ | 10.4918 | 120 | 0.1507 | - | - | - | - | - |
873
+ | 10.9290 | 125 | - | 0.5976 | 0.6181 | 0.6258 | 0.5668 | 0.6305 |
874
+ | 11.3661 | 130 | 0.1307 | - | - | - | - | - |
875
+ | 11.9781 | 137 | - | 0.5990 | 0.6166 | 0.6251 | 0.5671 | 0.6318 |
876
+ | 12.2404 | 140 | 0.1275 | - | - | - | - | - |
877
+ | **12.9399** | **148** | **-** | **0.6002** | **0.6174** | **0.6259** | **0.5665** | **0.6314** |
878
+ | 13.1148 | 150 | 0.1204 | - | - | - | - | - |
879
+ | 13.9891 | 160 | 0.1227 | 0.6004 | 0.6176 | 0.6253 | 0.5668 | 0.6316 |
880
+ | 14.4262 | 165 | - | 0.6001 | 0.6182 | 0.6252 | 0.5667 | 0.6315 |
881
+
882
+ * The bold row denotes the saved checkpoint.
883
+
884
+ ### Framework Versions
885
+ - Python: 3.10.13
886
+ - Sentence Transformers: 3.0.1
887
+ - Transformers: 4.41.2
888
+ - PyTorch: 2.1.2
889
+ - Accelerate: 0.30.1
890
+ - Datasets: 2.19.1
891
+ - Tokenizers: 0.19.1
892
+
893
+ ## Citation
894
+
895
+ ### BibTeX
896
+
897
+ #### Sentence Transformers
898
+ ```bibtex
899
+ @inproceedings{reimers-2019-sentence-bert,
900
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
901
+ author = "Reimers, Nils and Gurevych, Iryna",
902
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
903
+ month = "11",
904
+ year = "2019",
905
+ publisher = "Association for Computational Linguistics",
906
+ url = "https://arxiv.org/abs/1908.10084",
907
+ }
908
+ ```
909
+
910
+ #### MatryoshkaLoss
911
+ ```bibtex
912
+ @misc{kusupati2024matryoshka,
913
+ title={Matryoshka Representation Learning},
914
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
915
+ year={2024},
916
+ eprint={2205.13147},
917
+ archivePrefix={arXiv},
918
+ primaryClass={cs.LG}
919
+ }
920
+ ```
921
+
922
+ #### MultipleNegativesRankingLoss
923
+ ```bibtex
924
+ @misc{henderson2017efficient,
925
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
926
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
927
+ year={2017},
928
+ eprint={1705.00652},
929
+ archivePrefix={arXiv},
930
+ primaryClass={cs.CL}
931
+ }
932
+ ```
933
+
934
+ <!--
935
+ ## Glossary
936
+
937
+ *Clearly define terms in order to be accessible across audiences.*
938
+ -->
939
+
940
+ <!--
941
+ ## Model Card Authors
942
+
943
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
944
+ -->
945
+
946
+ <!--
947
+ ## Model Card Contact
948
+
949
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
950
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "bkai-foundation-models/vietnamese-bi-encoder",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.41.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.41.2",
5
+ "pytorch": "2.1.2"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:922cbe40f8a38195254e7caf251e7beb490d33323c06c5860ccda2e8deb1295c
3
+ size 540015464
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 256,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff