File size: 13,565 Bytes
508870d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
---
base_model: mini1013/master_domain
library_name: setfit
metrics:
- metric
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 모어네이처 프리미엄 코엔자임Q10 500mg x 60캡슐  주식회사 템스윈(Tems Win)
- text: 솔가 맥주효모 비타민B12 티아민 250 맥주효모 250정(80일분) X 2 
- text: 닥터스베스트 OptiMSM 함유 MSM 분말 250g(8.8oz)  메트로 나인
- text: 정관장 홍삼원 6년근 홍삼농축액 50ml 30 고형분60% 선물세트 쇼핑백포함  주식회사 무한종합상사
- text: 락토핏 당케어 2g x 60  (주)레놈 성수지점
inference: true
model-index:
- name: SetFit with mini1013/master_domain
  results:
  - task:
      type: text-classification
      name: Text Classification
    dataset:
      name: Unknown
      type: unknown
      split: test
    metrics:
    - type: metric
      value: 0.7147122562003371
      name: Metric
---

# SetFit with mini1013/master_domain

This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.

## Model Details

### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 13 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)

### Model Labels
| Label | Examples                                                                                                                                                                                                                  |
|:------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 2.0   | <ul><li>'콤비타 마누카꿀 UMF10 500g 2개 2.콤비타 마누카꿀 UMF10+ 500g 2개 재인뉴트리셔널'</li><li>'데저트 크릭 로 텍사스 꿀 340g 2개 Desert Creek Honey Raw Unfiltered Texas Honey  누크몰글로벌'</li><li>'한울벌꿀 국내산 아카시아꿀 사양 벌꿀 2.4kg 아카시아꿀 2.4kg 선흥물산'</li></ul> |
| 6.0   | <ul><li>'블루미너스 왕의 맥문동 30포X4박스/국내산 볶은 맥문동 뿌리 가루 맥문동차 사포닌 추천  주식회사 대한종합상사'</li><li>'홍국 발효 구기자 분말 가루 청양구기자 홍국균 500g 홍국발효구기자 분말 500g (1팩) 푸드센스'</li><li>'GNM자연의품격 루테인 지아잔틴 아스타잔틴 500mg x 30캡슐  케이티씨 주식회사'</li></ul>           |
| 0.0   | <ul><li>'[3+1 이벤트] 데이풀 호박즙 아르기닌 110ml 1박스 여자아르기닌 쌍수 성형 붓기 늙은호박즙  어반랩스 주식회사'</li><li>'홍삼생알칡즙  망구 에이'</li><li>'국산 아로니아원액 1L 2병 아로니아즙  농업회사법인 청정산들해(주)'</li></ul>                                                            |
| 5.0   | <ul><li>'고농축 랩온랩 k2 히말라야 숙취해소제 허브 추출물 1박스 30정  단비'</li><li>'고농축 k2 히말라야 숙취해소제 허브 추출물 1박스 30정 히말라야숙취해소제 (30정) 랩온랩(LAB ON LAB)'</li><li>'히말라야 숙취해소 파티스마트 소프트 츄 10개입 04_파티스마트 2개입 4박스 (주)히말라야코리아'</li></ul>                  |
| 10.0  | <ul><li>'황성주박사의 마시는 영양식 140ml 24팩 고소한 곡물맛  하얀'</li><li>'뉴케어 고칼슘 영양갱 40g 30입  아르미유'</li><li>'대상웰라이프 마이밀 마이키즈 밀크맛 150ml 24팩 아이간식 +Npay 2000원 대상웰라이프(주)'</li></ul>                                                           |
| 3.0   | <ul><li>'Green Foods 그린푸드 마그마 플러스 드링크 믹스 10.6oz  캐주얼'</li><li>'캐나다 영양제 퀄리티랩 프리미엄 퀄리티 로얄제리 1000mg \ufeff200캡슐  바이오 파크(Bio park)'</li><li>'(100매)푸드어홀릭 네이처스킨 오이 마스크팩 (100매)푸드어홀릭 네이처스킨 오이 마스크팩 차일드'</li></ul>               |
| 9.0   | <ul><li>'동원 천지인 홍삼절편 수 (15g 8갑 8일분)  (주)동방유래'</li><li>'정관장 홍삼차 100포 인삼차 건강차 홍삼차(포장O) 주식회사 앨리스월드'</li><li>'[정기구독]함소아 홍키통키 프리미어 그린 1박스  함소아제약'</li></ul>                                                                    |
| 8.0   | <ul><li>'우슬 300g 우슬분말 300g 농업회사법인 주식회사 두손애약초'</li><li>'차가버섯 선물세트 1kg 러시아/고급바구니 포장  주식회사 생생드림'</li><li>'산사 열매 국내산 300g 산사자 아가위 나무 산사 300g x5개(10%할인) 농업회사법인 주식회사 두손애약초'</li></ul>                                          |
| 11.0  | <ul><li>'유한m 액티브 셀렌효모 플러스 480정 / 맥주효모 셀레늄 옥타코사놀  헬스피아'</li><li>'효소락 30포  용한약국'</li><li>'여에스더 맥주효모 비오틴 울트라 케어 5200 맥스 국내 최대함량 맥주효모&비오틴 소형환 [30%] 1박스 (14포) 에스더포뮬러 주식회사'</li></ul>                                          |
| 1.0   | <ul><li>'몽글환 차전자피환 4g 30포  우리닥터'</li><li>'국산 여주환 500g 여주환 500g 주식회사 건강중심'</li><li>'마카 아르기닌 야관문 서리태환 남자 활력 모발관리 필수 콩의두감 3병 선물세트 (2+1)야관문 플러스 세트 3개(9병) 주식회사 루토닉스'</li></ul>                                                |
| 4.0   | <ul><li>'암웨이 더블엑스 종합비타민 무기질 리필 칼맥디 프렌즈'</li><li>'종근당 이뮨 듀오 멀티비타맥스 140ml 7병 1박스  늘품서치'</li><li>'네추럴라이즈 멀티비타민 꾸미 2.5g x 60개입  현민예 스토어'</li></ul>                                                                            |
| 12.0  | <ul><li>'활강원 백만 임산부 발효 자연 곡물 효소 400만 역가수치 효소제 100포 백만효소 x 2박스 (200스틱) 디와이코어'</li><li>'이영애의건강미식 카무트 브랜드 밀 효소 골드 3g x 30포  주식회사 템스윈(Tems Win)'</li><li>'이영애의 건강미식 골드 카무트 효소 1개월 분 카무트 효소 1개 주식회사 네이처라우드'</li></ul>          |
| 7.0   | <ul><li>'인삼 도매일번지 난발삼 금산 세척 난발삼_03난발삼 소500g_세척안함 금산인삼 도매 일번지'</li><li>'동우당제약 궁중대보 250g 국내산 인삼 복령 지황  에이치앤지바이오'</li><li>'동우당제약 궁중대보 250g 국내산 인삼 복령 지황  인투'</li></ul>                                                       |

## Evaluation

### Metrics
| Label   | Metric |
|:--------|:-------|
| **all** | 0.7147 |

## Uses

### Direct Use for Inference

First install the SetFit library:

```bash
pip install setfit
```

Then you can load this model and run inference.

```python
from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_fd1")
# Run inference
preds = model("락토핏 당케어 2g x 60포  (주)레놈 성수지점")
```

<!--
### Downstream Use

*List how someone could finetune this model on their own dataset.*
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:-------|:----|
| Word count   | 4   | 9.8446 | 23  |

| Label | Training Sample Count |
|:------|:----------------------|
| 0.0   | 50                    |
| 1.0   | 50                    |
| 2.0   | 50                    |
| 3.0   | 50                    |
| 4.0   | 50                    |
| 5.0   | 31                    |
| 6.0   | 50                    |
| 7.0   | 50                    |
| 8.0   | 24                    |
| 9.0   | 50                    |
| 10.0  | 50                    |
| 11.0  | 50                    |
| 12.0  | 24                    |

### Training Hyperparameters
- batch_size: (512, 512)
- num_epochs: (20, 20)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 40
- body_learning_rate: (2e-05, 2e-05)
- head_learning_rate: 2e-05
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False

### Training Results
| Epoch   | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0110  | 1    | 0.3794        | -               |
| 0.5495  | 50   | 0.2808        | -               |
| 1.0989  | 100  | 0.1721        | -               |
| 1.6484  | 150  | 0.0976        | -               |
| 2.1978  | 200  | 0.0646        | -               |
| 2.7473  | 250  | 0.0528        | -               |
| 3.2967  | 300  | 0.0428        | -               |
| 3.8462  | 350  | 0.0128        | -               |
| 4.3956  | 400  | 0.0079        | -               |
| 4.9451  | 450  | 0.01          | -               |
| 5.4945  | 500  | 0.0115        | -               |
| 6.0440  | 550  | 0.0002        | -               |
| 6.5934  | 600  | 0.0001        | -               |
| 7.1429  | 650  | 0.0001        | -               |
| 7.6923  | 700  | 0.0001        | -               |
| 8.2418  | 750  | 0.0001        | -               |
| 8.7912  | 800  | 0.0001        | -               |
| 9.3407  | 850  | 0.0001        | -               |
| 9.8901  | 900  | 0.0001        | -               |
| 10.4396 | 950  | 0.0001        | -               |
| 10.9890 | 1000 | 0.0001        | -               |
| 11.5385 | 1050 | 0.0001        | -               |
| 12.0879 | 1100 | 0.0001        | -               |
| 12.6374 | 1150 | 0.0001        | -               |
| 13.1868 | 1200 | 0.0001        | -               |
| 13.7363 | 1250 | 0.0001        | -               |
| 14.2857 | 1300 | 0.0001        | -               |
| 14.8352 | 1350 | 0.0           | -               |
| 15.3846 | 1400 | 0.0001        | -               |
| 15.9341 | 1450 | 0.0           | -               |
| 16.4835 | 1500 | 0.0001        | -               |
| 17.0330 | 1550 | 0.0           | -               |
| 17.5824 | 1600 | 0.0           | -               |
| 18.1319 | 1650 | 0.0           | -               |
| 18.6813 | 1700 | 0.0           | -               |
| 19.2308 | 1750 | 0.0           | -               |
| 19.7802 | 1800 | 0.0001        | -               |

### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0.dev0
- Sentence Transformers: 3.1.1
- Transformers: 4.46.1
- PyTorch: 2.4.0+cu121
- Datasets: 2.20.0
- Tokenizers: 0.20.0

## Citation

### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->