Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -129,7 +129,15 @@ base_model = "EleutherAI/gpt-neo-1.3B" #load_8bit = False (in load_tokenizer_
|
|
129 |
# Load model directly
|
130 |
#####################################################
|
131 |
#Tokenizer und Model laden
|
132 |
-
tokenizer,model,device = load_tokenizer_and_model(base_model, False)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
133 |
#tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
|
134 |
'''
|
135 |
#für Baize.... da spezieller Tokenizer geladen werden muss...
|
@@ -278,6 +286,23 @@ trainer = QuestionAnsweringTrainer(
|
|
278 |
'''
|
279 |
#################################################
|
280 |
'''
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
281 |
#################################################
|
282 |
# special Trainer Baize Model
|
283 |
# Parameters für Model 7b: 7b 32 0.0002
|
|
|
129 |
# Load model directly
|
130 |
#####################################################
|
131 |
#Tokenizer und Model laden
|
132 |
+
#tokenizer,model,device = load_tokenizer_and_model(base_model, False)
|
133 |
+
|
134 |
+
#################################################
|
135 |
+
# Few-Shot Training!!!!!!!!!
|
136 |
+
#################################################
|
137 |
+
# Load SetFit model from Hub
|
138 |
+
tokenizer,model,device = load_tokenizer_and_model_setFit(base_model, False)
|
139 |
+
|
140 |
+
|
141 |
#tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
|
142 |
'''
|
143 |
#für Baize.... da spezieller Tokenizer geladen werden muss...
|
|
|
286 |
'''
|
287 |
#################################################
|
288 |
'''
|
289 |
+
|
290 |
+
#################################################
|
291 |
+
# Few-Shot Training!!!!!!!!!
|
292 |
+
#################################################
|
293 |
+
|
294 |
+
# Create Few-Shot trainer
|
295 |
+
trainer = SetFitTrainer(
|
296 |
+
model=model,
|
297 |
+
train_dataset=train_ds,
|
298 |
+
eval_dataset=test_ds,
|
299 |
+
loss_class=CosineSimilarityLoss,
|
300 |
+
batch_size=16,
|
301 |
+
num_iterations=20, # Number of text pairs to generate for contrastive learning
|
302 |
+
num_epochs=1 # Number of epochs to use for contrastive learning
|
303 |
+
)
|
304 |
+
|
305 |
+
|
306 |
#################################################
|
307 |
# special Trainer Baize Model
|
308 |
# Parameters für Model 7b: 7b 32 0.0002
|