Edit model card

flaubert_sentiment

FlauBERT est un modèle de transformer pré-entraîné utilisant l'objectif de modélisation de langage masqué (MLM), similaire à BERT. Il a été conçu pour le français et appris sur un large et hétérogène corpus français. \ FlauBERT a été démontré efficace dans diverses tâches de TALN (traitement automatique du langage naturel) telles que la classification de texte, le paraphrasage, l'inférence en langage naturel, l'analyse syntaxique et la désambiguïsation lexicale.

Données d'entrainement

Confidentielle.

Accuracy

Le modèle finalisé a été évalué sur l'ensemble de test français amazon_reviews_multi.

  • La précision (exacte) est la correspondance exacte du nombre d'étoiles.
  • La précision (off-by-1) est le pourcentage de commentaires pour lesquels le nombre d'étoiles prédit par le modèle diffère d'un maximum de 1 par rapport au nombre donné par l'évaluateur humain.
Language Accuracy (exacte) Accuracy (off-by-1)
Français 61.56% 95.66%
Downloads last month
4
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train salmaaidli/Flaubert