Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -359,9 +359,14 @@ print("trained!!!!!")
|
|
359 |
|
360 |
##################
|
361 |
#Evaluate the new Model auf evual dataset
|
|
|
|
|
|
|
|
|
|
|
362 |
print ("#################Evaluate:#################")
|
363 |
-
|
364 |
-
|
365 |
print("Done Eval")
|
366 |
|
367 |
print('################ Test Trained Model ###################')
|
|
|
359 |
|
360 |
##################
|
361 |
#Evaluate the new Model auf evual dataset
|
362 |
+
#loss: Gesamt-Verlust die das Modell auf den Test-Daten liefert (möglichst niedrig)
|
363 |
+
#accuracy: Wie genau die Vorhersage des neuen Modelss auf den Test Daten funktioniert (möglichst nahe 1)
|
364 |
+
#f1_score: Maß für Genauigkeit des Modells ? (möglichst nahe 1)
|
365 |
+
#recall: Recall ist ein Maß dafür, wie viele der tatsächlich positiven Beispiele das Modell richtig klassifiziert hat (möglichst nahe 1)
|
366 |
+
#precision: Maß dafür, wie viele der vom Modell als positiv klassifizierten Beispiele tatsächlich positiv sind (möglichst nahe 1)
|
367 |
print ("#################Evaluate:#################")
|
368 |
+
loss, accuracy, f1_score, recall, precision = trainer.evaluate(eval_dataset=lm_datasets["test"]))
|
369 |
+
print(loss, accuracy, f1_score, recall, precision)
|
370 |
print("Done Eval")
|
371 |
|
372 |
print('################ Test Trained Model ###################')
|