alexkueck commited on
Commit
3cf5a13
·
1 Parent(s): d38b680

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -3
app.py CHANGED
@@ -47,7 +47,13 @@ def generate_response(prompt, model, tokenizer):
47
  response = tokenizer.decode(output[:, input_ids.shape[-1]:][0], skip_special_tokens=True)
48
  return response
49
 
50
-
 
 
 
 
 
 
51
 
52
 
53
  ###################################################################################
@@ -106,6 +112,12 @@ print ("lm datasets")
106
  #die Daten wurden nun "gereinigt" und für das Model vorbereitet.
107
  #z.B. anschauen mit: tokenizer.decode(lm_datasets["train"][1]["input_ids"])
108
 
 
 
 
 
 
 
109
  ####################################################
110
  #Training
111
  ####################################################
@@ -146,7 +158,7 @@ trainer = Trainer(
146
  train_dataset=lm_datasets["train"],
147
  eval_dataset=lm_datasets["test"],
148
  #tokenizer=tokenizer,
149
- #compute_metrics=compute_metrics,
150
  )
151
  print ("trainer")
152
  #trainer ausführen
@@ -158,7 +170,7 @@ print("trained!!!!!")
158
  ##################
159
  #Evaluate the new Model
160
  print("Evaluate:")
161
- #trainer.evaluate()
162
  print("Done Eval")
163
 
164
  ###################################################
 
47
  response = tokenizer.decode(output[:, input_ids.shape[-1]:][0], skip_special_tokens=True)
48
  return response
49
 
50
+ #Funktion, die der trainer braucht, um das Training zu evaluieren - mit einer Metrik
51
+ def compute_metrics(eval_pred):
52
+ logits, labels = eval_pred
53
+ predictions = np.argmax(logits, axis=-1)
54
+ #Call compute on metric to calculate the accuracy of your predictions.
55
+ #Before passing your predictions to compute, you need to convert the predictions to logits (remember all Transformers models return logits):
56
+ return metric.compute(predictions=predictions, references=labels)
57
 
58
 
59
  ###################################################################################
 
112
  #die Daten wurden nun "gereinigt" und für das Model vorbereitet.
113
  #z.B. anschauen mit: tokenizer.decode(lm_datasets["train"][1]["input_ids"])
114
 
115
+ ###################################################
116
+ #Metrik
117
+ #Metrik berechnen, um das training messen zu können - wird es besser???
118
+ metric = evaluate.load("accuracy") # 3 Arten von gegebener Metrik: f1 oder roc_auc oder accuracy
119
+
120
+
121
  ####################################################
122
  #Training
123
  ####################################################
 
158
  train_dataset=lm_datasets["train"],
159
  eval_dataset=lm_datasets["test"],
160
  #tokenizer=tokenizer,
161
+ compute_metrics=compute_metrics,
162
  )
163
  print ("trainer")
164
  #trainer ausführen
 
170
  ##################
171
  #Evaluate the new Model
172
  print("Evaluate:")
173
+ trainer.evaluate(eval_dataset=lm_dataset[“test”])
174
  print("Done Eval")
175
 
176
  ###################################################