Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -47,7 +47,13 @@ def generate_response(prompt, model, tokenizer):
|
|
47 |
response = tokenizer.decode(output[:, input_ids.shape[-1]:][0], skip_special_tokens=True)
|
48 |
return response
|
49 |
|
50 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
51 |
|
52 |
|
53 |
###################################################################################
|
@@ -106,6 +112,12 @@ print ("lm datasets")
|
|
106 |
#die Daten wurden nun "gereinigt" und für das Model vorbereitet.
|
107 |
#z.B. anschauen mit: tokenizer.decode(lm_datasets["train"][1]["input_ids"])
|
108 |
|
|
|
|
|
|
|
|
|
|
|
|
|
109 |
####################################################
|
110 |
#Training
|
111 |
####################################################
|
@@ -146,7 +158,7 @@ trainer = Trainer(
|
|
146 |
train_dataset=lm_datasets["train"],
|
147 |
eval_dataset=lm_datasets["test"],
|
148 |
#tokenizer=tokenizer,
|
149 |
-
|
150 |
)
|
151 |
print ("trainer")
|
152 |
#trainer ausführen
|
@@ -158,7 +170,7 @@ print("trained!!!!!")
|
|
158 |
##################
|
159 |
#Evaluate the new Model
|
160 |
print("Evaluate:")
|
161 |
-
|
162 |
print("Done Eval")
|
163 |
|
164 |
###################################################
|
|
|
47 |
response = tokenizer.decode(output[:, input_ids.shape[-1]:][0], skip_special_tokens=True)
|
48 |
return response
|
49 |
|
50 |
+
#Funktion, die der trainer braucht, um das Training zu evaluieren - mit einer Metrik
|
51 |
+
def compute_metrics(eval_pred):
|
52 |
+
logits, labels = eval_pred
|
53 |
+
predictions = np.argmax(logits, axis=-1)
|
54 |
+
#Call compute on metric to calculate the accuracy of your predictions.
|
55 |
+
#Before passing your predictions to compute, you need to convert the predictions to logits (remember all Transformers models return logits):
|
56 |
+
return metric.compute(predictions=predictions, references=labels)
|
57 |
|
58 |
|
59 |
###################################################################################
|
|
|
112 |
#die Daten wurden nun "gereinigt" und für das Model vorbereitet.
|
113 |
#z.B. anschauen mit: tokenizer.decode(lm_datasets["train"][1]["input_ids"])
|
114 |
|
115 |
+
###################################################
|
116 |
+
#Metrik
|
117 |
+
#Metrik berechnen, um das training messen zu können - wird es besser???
|
118 |
+
metric = evaluate.load("accuracy") # 3 Arten von gegebener Metrik: f1 oder roc_auc oder accuracy
|
119 |
+
|
120 |
+
|
121 |
####################################################
|
122 |
#Training
|
123 |
####################################################
|
|
|
158 |
train_dataset=lm_datasets["train"],
|
159 |
eval_dataset=lm_datasets["test"],
|
160 |
#tokenizer=tokenizer,
|
161 |
+
compute_metrics=compute_metrics,
|
162 |
)
|
163 |
print ("trainer")
|
164 |
#trainer ausführen
|
|
|
170 |
##################
|
171 |
#Evaluate the new Model
|
172 |
print("Evaluate:")
|
173 |
+
trainer.evaluate(eval_dataset=lm_dataset[“test”])
|
174 |
print("Done Eval")
|
175 |
|
176 |
###################################################
|