SetFit with mini1013/master_domain

This is a SetFit model that can be used for Text Classification. This SetFit model uses mini1013/master_domain as the Sentence Transformer embedding model. A LogisticRegression instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

  1. Fine-tuning a Sentence Transformer with contrastive learning.
  2. Training a classification head with features from the fine-tuned Sentence Transformer.

Model Details

Model Description

Model Sources

Model Labels

Label Examples
6
  • '라이트풀 C+ 코랄 틴티드 프라이머 기획(+매직 래디언스 픽서 2.5ml 포함) 옵션 01번 틴티드 프라이머 세트 (#M)SSG.COM/메이크업/아이메이크업/아이라이너 ssg > 뷰티 > 메이크업 > 아이메이크업 > 아이라이너'
  • '자트인사이트 콘스탄티 엘레강스 픽서 50ml LotteOn > 뷰티 > 스킨케어 > 미스트 LotteOn > 뷰티 > 스킨케어 > 미스트'
  • '1 + 1 메리쏘드 스키니 릴롱카라 메리쏘드 메이크업 픽서 LotteOn > 뷰티 > 메이크업 > 아이메이크업 > 마스카라 LotteOn > 뷰티 > 메이크업 > 아이메이크업 > 마스카라'
2
  • '이영지X메이블린뉴욕 얼티매트립스틱/콜로썰 마스카라/파운데이션/컨실러 옵션08.이레이저 다크 서클 컨실러_라이트 11st>메이크업>립메이크업>립스틱;쇼킹딜 홈>뷰티>선케어/메이크업>립/치크메이크업;쇼킹딜 홈>뷰티>선케어/메이크업>아이메이크업;11st>뷰티>선케어/메이크업>아이메이크업;11st>메이크업>아이메이크업>마스카라;11st > 뷰티 > 메이크업 > 립메이크업 11st Hour Event > 패션/뷰티 > 뷰티 > 선케어/메이크업 > 아이메이크업'
  • '정샘물 스킨 누더 컨실러 Gift)부스팅 토너 30ml 라이트 ssg > 뷰티 > 메이크업 > 베이스메이크업 > 파운데이션;ssg > 뷰티 > 메이크업 > 베이스메이크업;ssg > 뷰티 > 메이크업 > 치크메이크업 ssg > 뷰티 > 메이크업 > 베이스메이크업 > 파운데이션'
  • '[중복20%+T11%]에뛰드 ~61% 써머세일(디렉터파이 선크림/순정 마스크/플레이톤아이팔레트) 80.빅커버스킨핏컨실러프로_프로뉴트럴베이지N04_650011638 쇼킹딜 홈>뷰티>선케어/메이크업>아이메이크업;11st>메이크업>아이메이크업>아이섀도우;11st>뷰티>선케어/메이크업>아이메이크업;11st Hour Event > 패션/뷰티 > 뷰티 > 선케어/메이크업 > 아이메이크업 11st Hour Event > 패션/뷰티 > 뷰티 > 선케어/메이크업 > 아이메이크업'
5
  • '브이디엘 루미레이어 프라이머 30ml 1개 (#M)쿠팡 홈>뷰티>메이크업>베이스 메이크업>베이스/프라이머 Coupang > 뷰티 > 로드샵 > 메이크업 > 베이스 메이크업 > 베이스/프라이머'
  • '삐아 라스트 아이 프라이머 아이 프라이머 (#M)11st>메이크업>립메이크업>립틴트 11st > 뷰티 > 메이크업 > 립메이크업 > 립틴트'
  • '[20%+T11% ] 바닐라코 휴가철 선케어 / ~68% OFF 썸머세일 NEW&BEST (클린잇제로/커버리셔스 외) 프라임 프라이머 클래식_선택완료 쇼킹딜 홈>뷰티>클렌징/팩/마스크>클렌징/필링;11st>뷰티>클렌징/팩/마스크>클렌징/필링;11st>클렌징/필링>클렌징크림>클렌징크림;11st > 뷰티 > 클렌징/필링 > 클렌징크림 11st Hour Event > 패션/뷰티 > 뷰티 > 클렌징/팩/마스크 > 클렌징/필링'
0
  • '센텔리안 24 마데카크림 시즌4 파워부스팅 포뮬러 50ml 마데카 블레미쉬 커버크림 20g 23호 홈>아토팜 I 동국제약;(#M)홈>브랜드별>센텔리안24 Naverstore > 화장품/미용 > 스킨케어 > 크림'
  • '센텔리안 24 마데카크림 시즌4 파워부스팅 포뮬러 50ml 마데카 블레미쉬 커버크림 20g 21호 홈>아토팜 I 동국제약;(#M)홈>브랜드별>센텔리안24 Naverstore > 화장품/미용 > 스킨케어 > 크림'
  • 'AHC 프리미엄 인텐스 컨튜어 밤 10ml 2개/3개 옵션선택:001-01) 10ml 2개 (#M)위메프 > 뷰티 > 선케어 > 선밤/선스틱 > 선밤/선스틱 위메프 > 뷰티 > 선케어 > 선밤/선스틱'
4
  • '에스티로더 [단독] 더블웨어 파운데이션 세트 (+마스카라 정품 ) 226792 2W1 던 LotteOn > 뷰티 > 메이크업 > 베이스메이크업 > 파운데이션 LotteOn > 뷰티 > 메이크업 > 베이스메이크업 > 파운데이션'
  • '아이오페 바이오에센스 기획세트 외 인기상품 할인 31 에어쿠션 5세대 본품+리필 커버or내추럴_내추럴 17N 화장품/향수>스킨/로션>스킨케어세트;(#M)화장품/향수>스킨케어>스킨케어세트 Gmarket > 뷰티 > 화장품/향수 > 스킨케어'
  • '아이오페 에어쿠션 5세대 본품 15g (옵션) 내추럴 21C LotteOn > 뷰티 > 메이크업 > 베이스메이크업 > 파운데이션 LotteOn > 뷰티 > 메이크업 > 베이스메이크업 > 파운데이션'
1
  • '[NEW] AHC 누드 톤업크림 내추럴 글로우 40ml+누드 컨실링 스틱 3.5g DP9_01)누드크림 40ml+스틱 3.5g (#M)화장품/미용>스킨케어>톤업크림 Naverstore > 화장품/미용 > 스킨케어 > 톤업크림'
  • '[수딩 클렌징 오일+미니 크러쉬드 립 증정]인텐시브 스킨 세럼 쿠션 세트 라이트 투 미디엄 LotteOn > 뷰티 > 명품화장품 > 남성화장품 LotteOn > 뷰티 > 명품화장품 > 남성화장품'
  • '[시세이도][2특별] NEW 래디언트 리프팅 파운데이션 세트(+컨실러 정품+키트 2종)(강남점) 140 포슬린 (#M)11st>메이크업>페이스메이크업>파운데이션 11st > 뷰티 > 메이크업 > 페이스메이크업 > 파운데이션'
3
  • '설화수 NEW 진설파우더팩트 리필 23N1 (#M)화장품/향수>스킨케어>에센스/세럼 Gmarket > 뷰티 > 화장품/향수 > 스킨케어 > 에센스/세럼'
  • 'SK2 페이셜 트리트먼트 어드밴스드 루스파우더 2개 MinSellAmount (#M)화장품/향수>스킨케어>스킨케어세트 Gmarket > 뷰티 > 화장품/향수 > 스킨케어 > 스킨케어세트'
  • '이니스프리 다이노탱 LTD 노세범미네랄파우더 5g (5종 택1) 2 Juicy peach_131173199 (#M)화장품/향수>베이스메이크업>쿠션/팩트 Gmarket > 뷰티 > 화장품/향수 > 베이스메이크업 > 쿠션/팩트'

Evaluation

Metrics

Label Accuracy
all 0.6700

Uses

Direct Use for Inference

First install the SetFit library:

pip install setfit

Then you can load this model and run inference.

from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_bt4_test_flat_top_cate")
# Run inference
preds = model("쏘내추럴 올 데이 메이크업 픽서 75ml (안개분사 캔타입)  LotteOn > 뷰티 > 스킨케어 > 미스트 LotteOn > 뷰티 > 스킨케어 > 미스트")

Training Details

Training Set Metrics

Training set Min Median Max
Word count 12 23.7829 87
Label Training Sample Count
0 50
1 50
2 50
3 50
4 50
5 50
6 50

Training Hyperparameters

  • batch_size: (64, 64)
  • num_epochs: (30, 30)
  • max_steps: -1
  • sampling_strategy: oversampling
  • num_iterations: 100
  • body_learning_rate: (2e-05, 1e-05)
  • head_learning_rate: 0.01
  • loss: CosineSimilarityLoss
  • distance_metric: cosine_distance
  • margin: 0.25
  • end_to_end: False
  • use_amp: False
  • warmup_proportion: 0.1
  • l2_weight: 0.01
  • seed: 42
  • eval_max_steps: -1
  • load_best_model_at_end: False

Training Results

Epoch Step Training Loss Validation Loss
0.0018 1 0.4902 -
0.0914 50 0.4582 -
0.1828 100 0.4499 -
0.2742 150 0.4204 -
0.3656 200 0.3888 -
0.4570 250 0.3469 -
0.5484 300 0.3053 -
0.6399 350 0.2678 -
0.7313 400 0.2489 -
0.8227 450 0.2394 -
0.9141 500 0.2395 -
1.0055 550 0.2307 -
1.0969 600 0.2303 -
1.1883 650 0.2229 -
1.2797 700 0.2167 -
1.3711 750 0.2052 -
1.4625 800 0.197 -
1.5539 850 0.203 -
1.6453 900 0.1868 -
1.7367 950 0.178 -
1.8282 1000 0.1737 -
1.9196 1050 0.1662 -
2.0110 1100 0.1482 -
2.1024 1150 0.1408 -
2.1938 1200 0.1355 -
2.2852 1250 0.1244 -
2.3766 1300 0.1145 -
2.4680 1350 0.1063 -
2.5594 1400 0.0937 -
2.6508 1450 0.0822 -
2.7422 1500 0.0656 -
2.8336 1550 0.051 -
2.9250 1600 0.0384 -
3.0165 1650 0.0234 -
3.1079 1700 0.0137 -
3.1993 1750 0.0105 -
3.2907 1800 0.009 -
3.3821 1850 0.0029 -
3.4735 1900 0.0005 -
3.5649 1950 0.0003 -
3.6563 2000 0.0002 -
3.7477 2050 0.0005 -
3.8391 2100 0.0001 -
3.9305 2150 0.0001 -
4.0219 2200 0.0001 -
4.1133 2250 0.0001 -
4.2048 2300 0.0001 -
4.2962 2350 0.0001 -
4.3876 2400 0.0001 -
4.4790 2450 0.0001 -
4.5704 2500 0.0001 -
4.6618 2550 0.0002 -
4.7532 2600 0.0002 -
4.8446 2650 0.0 -
4.9360 2700 0.0004 -
5.0274 2750 0.0001 -
5.1188 2800 0.0 -
5.2102 2850 0.0 -
5.3016 2900 0.0 -
5.3931 2950 0.0 -
5.4845 3000 0.0002 -
5.5759 3050 0.0 -
5.6673 3100 0.0 -
5.7587 3150 0.0002 -
5.8501 3200 0.0 -
5.9415 3250 0.0002 -
6.0329 3300 0.0 -
6.1243 3350 0.0 -
6.2157 3400 0.0 -
6.3071 3450 0.0001 -
6.3985 3500 0.0007 -
6.4899 3550 0.0007 -
6.5814 3600 0.0005 -
6.6728 3650 0.0028 -
6.7642 3700 0.0057 -
6.8556 3750 0.0005 -
6.9470 3800 0.0011 -
7.0384 3850 0.0004 -
7.1298 3900 0.0001 -
7.2212 3950 0.0 -
7.3126 4000 0.0 -
7.4040 4050 0.0 -
7.4954 4100 0.0 -
7.5868 4150 0.0 -
7.6782 4200 0.0 -
7.7697 4250 0.0 -
7.8611 4300 0.0 -
7.9525 4350 0.0002 -
8.0439 4400 0.0 -
8.1353 4450 0.0002 -
8.2267 4500 0.0 -
8.3181 4550 0.0001 -
8.4095 4600 0.0 -
8.5009 4650 0.0 -
8.5923 4700 0.0 -
8.6837 4750 0.0 -
8.7751 4800 0.0 -
8.8665 4850 0.0 -
8.9580 4900 0.0 -
9.0494 4950 0.0 -
9.1408 5000 0.0 -
9.2322 5050 0.0 -
9.3236 5100 0.0 -
9.4150 5150 0.0 -
9.5064 5200 0.0 -
9.5978 5250 0.0 -
9.6892 5300 0.0 -
9.7806 5350 0.0 -
9.8720 5400 0.0 -
9.9634 5450 0.0 -
10.0548 5500 0.0 -
10.1463 5550 0.0 -
10.2377 5600 0.0 -
10.3291 5650 0.0 -
10.4205 5700 0.0 -
10.5119 5750 0.0 -
10.6033 5800 0.0 -
10.6947 5850 0.0 -
10.7861 5900 0.0 -
10.8775 5950 0.0 -
10.9689 6000 0.0 -
11.0603 6050 0.0 -
11.1517 6100 0.0 -
11.2431 6150 0.0 -
11.3346 6200 0.0 -
11.4260 6250 0.0 -
11.5174 6300 0.0 -
11.6088 6350 0.0 -
11.7002 6400 0.0 -
11.7916 6450 0.0 -
11.8830 6500 0.0 -
11.9744 6550 0.0 -
12.0658 6600 0.0 -
12.1572 6650 0.0 -
12.2486 6700 0.0 -
12.3400 6750 0.0 -
12.4314 6800 0.0009 -
12.5229 6850 0.0032 -
12.6143 6900 0.0001 -
12.7057 6950 0.0002 -
12.7971 7000 0.0001 -
12.8885 7050 0.0012 -
12.9799 7100 0.0 -
13.0713 7150 0.0003 -
13.1627 7200 0.0 -
13.2541 7250 0.0002 -
13.3455 7300 0.0 -
13.4369 7350 0.0003 -
13.5283 7400 0.0005 -
13.6197 7450 0.0003 -
13.7112 7500 0.0006 -
13.8026 7550 0.0001 -
13.8940 7600 0.0002 -
13.9854 7650 0.0 -
14.0768 7700 0.0004 -
14.1682 7750 0.0002 -
14.2596 7800 0.0 -
14.3510 7850 0.0 -
14.4424 7900 0.0 -
14.5338 7950 0.0 -
14.6252 8000 0.0 -
14.7166 8050 0.0 -
14.8080 8100 0.0 -
14.8995 8150 0.0 -
14.9909 8200 0.0 -
15.0823 8250 0.0 -
15.1737 8300 0.0 -
15.2651 8350 0.0 -
15.3565 8400 0.0 -
15.4479 8450 0.0 -
15.5393 8500 0.0 -
15.6307 8550 0.0 -
15.7221 8600 0.0 -
15.8135 8650 0.0 -
15.9049 8700 0.0 -
15.9963 8750 0.0 -
16.0878 8800 0.0 -
16.1792 8850 0.0 -
16.2706 8900 0.0 -
16.3620 8950 0.0 -
16.4534 9000 0.0 -
16.5448 9050 0.0 -
16.6362 9100 0.0 -
16.7276 9150 0.0 -
16.8190 9200 0.0 -
16.9104 9250 0.0 -
17.0018 9300 0.0002 -
17.0932 9350 0.0 -
17.1846 9400 0.0 -
17.2761 9450 0.0 -
17.3675 9500 0.0 -
17.4589 9550 0.0 -
17.5503 9600 0.0 -
17.6417 9650 0.0 -
17.7331 9700 0.0 -
17.8245 9750 0.0 -
17.9159 9800 0.0 -
18.0073 9850 0.0 -
18.0987 9900 0.0 -
18.1901 9950 0.0 -
18.2815 10000 0.0 -
18.3729 10050 0.0 -
18.4644 10100 0.0 -
18.5558 10150 0.0 -
18.6472 10200 0.0 -
18.7386 10250 0.0 -
18.8300 10300 0.0 -
18.9214 10350 0.0 -
19.0128 10400 0.0 -
19.1042 10450 0.0 -
19.1956 10500 0.0 -
19.2870 10550 0.0 -
19.3784 10600 0.0 -
19.4698 10650 0.0 -
19.5612 10700 0.0 -
19.6527 10750 0.0 -
19.7441 10800 0.0 -
19.8355 10850 0.0 -
19.9269 10900 0.0 -
20.0183 10950 0.0 -
20.1097 11000 0.0 -
20.2011 11050 0.0 -
20.2925 11100 0.0 -
20.3839 11150 0.0 -
20.4753 11200 0.0 -
20.5667 11250 0.0 -
20.6581 11300 0.0 -
20.7495 11350 0.0 -
20.8410 11400 0.0 -
20.9324 11450 0.0 -
21.0238 11500 0.0 -
21.1152 11550 0.0 -
21.2066 11600 0.0 -
21.2980 11650 0.0 -
21.3894 11700 0.0 -
21.4808 11750 0.0 -
21.5722 11800 0.0 -
21.6636 11850 0.0 -
21.7550 11900 0.0 -
21.8464 11950 0.0 -
21.9378 12000 0.0 -
22.0293 12050 0.0 -
22.1207 12100 0.0 -
22.2121 12150 0.0 -
22.3035 12200 0.0 -
22.3949 12250 0.0 -
22.4863 12300 0.0 -
22.5777 12350 0.0 -
22.6691 12400 0.0 -
22.7605 12450 0.0 -
22.8519 12500 0.0 -
22.9433 12550 0.0 -
23.0347 12600 0.0004 -
23.1261 12650 0.0 -
23.2176 12700 0.0003 -
23.3090 12750 0.0006 -
23.4004 12800 0.0 -
23.4918 12850 0.0001 -
23.5832 12900 0.0 -
23.6746 12950 0.0 -
23.7660 13000 0.0 -
23.8574 13050 0.0 -
23.9488 13100 0.0 -
24.0402 13150 0.0 -
24.1316 13200 0.0 -
24.2230 13250 0.0 -
24.3144 13300 0.0 -
24.4059 13350 0.0 -
24.4973 13400 0.0 -
24.5887 13450 0.0 -
24.6801 13500 0.0 -
24.7715 13550 0.0 -
24.8629 13600 0.0 -
24.9543 13650 0.0 -
25.0457 13700 0.0 -
25.1371 13750 0.0 -
25.2285 13800 0.0 -
25.3199 13850 0.0 -
25.4113 13900 0.0 -
25.5027 13950 0.0 -
25.5941 14000 0.0 -
25.6856 14050 0.0 -
25.7770 14100 0.0 -
25.8684 14150 0.0 -
25.9598 14200 0.0 -
26.0512 14250 0.0 -
26.1426 14300 0.0 -
26.2340 14350 0.0 -
26.3254 14400 0.0 -
26.4168 14450 0.0 -
26.5082 14500 0.0 -
26.5996 14550 0.0 -
26.6910 14600 0.0 -
26.7824 14650 0.0 -
26.8739 14700 0.0 -
26.9653 14750 0.0 -
27.0567 14800 0.0 -
27.1481 14850 0.0 -
27.2395 14900 0.0 -
27.3309 14950 0.0 -
27.4223 15000 0.0 -
27.5137 15050 0.0 -
27.6051 15100 0.0 -
27.6965 15150 0.0 -
27.7879 15200 0.0 -
27.8793 15250 0.0 -
27.9707 15300 0.0 -
28.0622 15350 0.0 -
28.1536 15400 0.0 -
28.2450 15450 0.0 -
28.3364 15500 0.0 -
28.4278 15550 0.0 -
28.5192 15600 0.0 -
28.6106 15650 0.0 -
28.7020 15700 0.0 -
28.7934 15750 0.0 -
28.8848 15800 0.0 -
28.9762 15850 0.0 -
29.0676 15900 0.0 -
29.1590 15950 0.0 -
29.2505 16000 0.0 -
29.3419 16050 0.0 -
29.4333 16100 0.0 -
29.5247 16150 0.0 -
29.6161 16200 0.0 -
29.7075 16250 0.0 -
29.7989 16300 0.0 -
29.8903 16350 0.0 -
29.9817 16400 0.0 -

Framework Versions

  • Python: 3.10.12
  • SetFit: 1.1.0
  • Sentence Transformers: 3.3.1
  • Transformers: 4.44.2
  • PyTorch: 2.2.0a0+81ea7a4
  • Datasets: 3.2.0
  • Tokenizers: 0.19.1

Citation

BibTeX

@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
Downloads last month
4
Safetensors
Model size
111M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for mini1013/master_cate_bt4_test_flat_top_cate

Base model

klue/roberta-base
Finetuned
(213)
this model

Evaluation results