ahm commited on
Commit
87bc1c2
1 Parent(s): f3f350d

updating model card

Browse files
Files changed (2) hide show
  1. README.md +19 -1
  2. assets/novelty.png +0 -0
README.md CHANGED
@@ -18,7 +18,25 @@ tags:
18
  - bart
19
  ---
20
 
21
- # TODO
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
22
 
23
  ## Utilisation
24
 
 
18
  - bart
19
  ---
20
 
21
+ # Résumé automatique d'article de presses
22
+
23
+ Ce modèles est basé sur le modèle [`facebook/mbart-large-50`](https://huggingface.co/facebook/mbart-large-50) et été fine-tuné en utilisant des articles de presse issus de la base de données MLSUM. L'hypothèse à été faite que les chapeau des articles faisaient de bon résumé.
24
+
25
+ ## Entrainement
26
+
27
+ Nous avons testé deux architecture de modèles (T5 et BART) avec des textes en entrée de 512 ou 1024 tokens. Finallement c'est le modèle BART avec 512 tokens qui à été retenu.
28
+
29
+ Il a été entrainé sur 2 epochs (~700K articles) sur une Tesla V100 (32 heures d'entrainement).
30
+
31
+ ## Résultats
32
+
33
+ ![Score de novelty](assets/novelty.png)
34
+
35
+ Nous avons comparé notre modèle à deux références:
36
+ * MBERT qui correspond aux performances du modèle entrainé par l'équipe à l'origine de la base d'articles MLSUM
37
+ * Barthez qui est un autre modèle basé sur des articles de presses issus de la base de données OrangeSum
38
+
39
+ On voit que le score de novelty (cf papier MLSUM) de notre modèle n'est pas encore comparable à ces deux références et encore moins à une production humaine néanmoins les résumés générés sont dans l'ensemble de bonne qualité.
40
 
41
  ## Utilisation
42
 
assets/novelty.png ADDED