Upload folder using huggingface_hub
Browse files- README.md +2 -2
- eval/triplet_evaluation_results_results.csv +3 -0
- model.safetensors +1 -1
README.md
CHANGED
@@ -46,7 +46,7 @@ The model was trained with the parameters:
|
|
46 |
|
47 |
**DataLoader**:
|
48 |
|
49 |
-
`torch.utils.data.dataloader.DataLoader` of length
|
50 |
```
|
51 |
{'batch_size': 10, 'sampler': 'torch.utils.data.sampler.RandomSampler', 'batch_sampler': 'torch.utils.data.sampler.BatchSampler'}
|
52 |
```
|
@@ -71,7 +71,7 @@ Parameters of the fit()-Method:
|
|
71 |
},
|
72 |
"scheduler": "warmuplinear",
|
73 |
"steps_per_epoch": null,
|
74 |
-
"warmup_steps":
|
75 |
"weight_decay": 0.01
|
76 |
}
|
77 |
```
|
|
|
46 |
|
47 |
**DataLoader**:
|
48 |
|
49 |
+
`torch.utils.data.dataloader.DataLoader` of length 27 with parameters:
|
50 |
```
|
51 |
{'batch_size': 10, 'sampler': 'torch.utils.data.sampler.RandomSampler', 'batch_sampler': 'torch.utils.data.sampler.BatchSampler'}
|
52 |
```
|
|
|
71 |
},
|
72 |
"scheduler": "warmuplinear",
|
73 |
"steps_per_epoch": null,
|
74 |
+
"warmup_steps": 2,
|
75 |
"weight_decay": 0.01
|
76 |
}
|
77 |
```
|
eval/triplet_evaluation_results_results.csv
CHANGED
@@ -11,3 +11,6 @@ epoch,steps,accuracy_cosinus,accuracy_manhattan,accuracy_euclidean
|
|
11 |
0,50,0.76,0.7666666666666667,0.76
|
12 |
0,60,0.7633333333333333,0.7633333333333333,0.7633333333333333
|
13 |
0,-1,0.7633333333333333,0.7633333333333333,0.7633333333333333
|
|
|
|
|
|
|
|
11 |
0,50,0.76,0.7666666666666667,0.76
|
12 |
0,60,0.7633333333333333,0.7633333333333333,0.7633333333333333
|
13 |
0,-1,0.7633333333333333,0.7633333333333333,0.7633333333333333
|
14 |
+
0,10,0.7888888888888889,0.7777777777777778,0.7888888888888889
|
15 |
+
0,20,0.8055555555555556,0.7888888888888889,0.8055555555555556
|
16 |
+
0,-1,0.8,0.7833333333333333,0.8
|
model.safetensors
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
size 437967672
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:1accbe016311e856570763cb5b22a777620664bcc79165133b058ff5e348db76
|
3 |
size 437967672
|