alexkueck commited on
Commit
5973677
·
1 Parent(s): ebeb5fd

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +26 -1
app.py CHANGED
@@ -129,7 +129,15 @@ base_model = "EleutherAI/gpt-neo-1.3B" #load_8bit = False (in load_tokenizer_
129
  # Load model directly
130
  #####################################################
131
  #Tokenizer und Model laden
132
- tokenizer,model,device = load_tokenizer_and_model(base_model, False)
 
 
 
 
 
 
 
 
133
  #tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
134
  '''
135
  #für Baize.... da spezieller Tokenizer geladen werden muss...
@@ -278,6 +286,23 @@ trainer = QuestionAnsweringTrainer(
278
  '''
279
  #################################################
280
  '''
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
281
  #################################################
282
  # special Trainer Baize Model
283
  # Parameters für Model 7b: 7b 32 0.0002
 
129
  # Load model directly
130
  #####################################################
131
  #Tokenizer und Model laden
132
+ #tokenizer,model,device = load_tokenizer_and_model(base_model, False)
133
+
134
+ #################################################
135
+ # Few-Shot Training!!!!!!!!!
136
+ #################################################
137
+ # Load SetFit model from Hub
138
+ tokenizer,model,device = load_tokenizer_and_model_setFit(base_model, False)
139
+
140
+
141
  #tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
142
  '''
143
  #für Baize.... da spezieller Tokenizer geladen werden muss...
 
286
  '''
287
  #################################################
288
  '''
289
+
290
+ #################################################
291
+ # Few-Shot Training!!!!!!!!!
292
+ #################################################
293
+
294
+ # Create Few-Shot trainer
295
+ trainer = SetFitTrainer(
296
+ model=model,
297
+ train_dataset=train_ds,
298
+ eval_dataset=test_ds,
299
+ loss_class=CosineSimilarityLoss,
300
+ batch_size=16,
301
+ num_iterations=20, # Number of text pairs to generate for contrastive learning
302
+ num_epochs=1 # Number of epochs to use for contrastive learning
303
+ )
304
+
305
+
306
  #################################################
307
  # special Trainer Baize Model
308
  # Parameters für Model 7b: 7b 32 0.0002