asahi417's picture
model update
aa4b003
|
raw
history blame
5.34 kB
metadata
license: cc-by-4.0
metrics:
  - bleu4
  - meteor
  - rouge-l
  - bertscore
  - moverscore
language: es
datasets:
  - lmqg/qg_esquad
pipeline_tag: text2text-generation
tags:
  - question generation
  - answer extraction
widget:
  - text: >-
      generate question: del <hl> Ministerio de Desarrollo Urbano <hl> ,
      Gobierno de la India.
    example_title: Question Generation Example 1
  - text: >-
      generate question: a <hl> noviembre <hl> , que es también la estación
      lluviosa.
    example_title: Question Generation Example 2
  - text: >-
      generate question: como <hl> el gobierno de Abbott <hl> que asumió el
      cargo el 18 de septiembre de 2013.
    example_title: Question Generation Example 3
  - text: >-
      <hl> En la diáspora somalí, múltiples eventos islámicos de recaudación de
      fondos se llevan a cabo cada año en ciudades como Birmingham, Londres,
      Toronto y Minneapolis, donde los académicos y profesionales somalíes dan
      conferencias y responden preguntas de la audiencia. <hl> El propósito de
      estos eventos es recaudar dinero para nuevas escuelas o universidades en
      Somalia, para ayudar a los somalíes que han sufrido como consecuencia de
      inundaciones y / o sequías, o para reunir fondos para la creación de
      nuevas mezquitas como.
    example_title: Answer Extraction Example 1
  - text: >-
      <hl> Los estudiosos y los histori a dores están divididos en cuanto a qué
      evento señala el final de la era helenística. <hl> El período helenístico
      se puede ver que termina con la conquista final del corazón griego por
      Roma en 146 a. C. tras la guerra aquea, con la derrota final del reino
      ptolemaico en la batalla de Actium en 31 a. Helenístico se distingue de
      helénico en que el primero abarca toda la esfera de influencia griega
      antigua directa, mientras que el segundo se refiere a la propia Grecia.
    example_title: Answer Extraction Example 2
model-index:
  - name: lmqg/mt5-small-esquad-multitask
    results:
      - task:
          name: Text2text Generation
          type: text2text-generation
        dataset:
          name: lmqg/qg_esquad
          type: default
          args: default
        metrics:
          - name: BLEU4
            type: bleu4
            value: 0.08785998455701795
          - name: ROUGE-L
            type: rouge-l
            value: 0.231305383218115
          - name: METEOR
            type: meteor
            value: 0.21658762330370077
          - name: BERTScore
            type: bertscore
            value: 0.8339217841152116
          - name: MoverScore
            type: moverscore
            value: 0.583354319136371

Language Models Fine-tuning on Question Generation: lmqg/mt5-small-esquad-multitask

This model is fine-tuned version of google/mt5-small for question generation task on the lmqg/qg_esquad (dataset_name: default). This model is fine-tuned on the answer extraction task as well as the question generation.

Overview

Usage


from transformers import pipeline

model_path = 'lmqg/mt5-small-esquad-multitask'
pipe = pipeline("text2text-generation", model_path)

# Question Generation
question = pipe('generate question: del <hl> Ministerio de Desarrollo Urbano <hl> , Gobierno de la India.')
# Answer Extraction
answer = pipe('extract answers: <hl> En la diáspora somalí, múltiples eventos islámicos de recaudación de fondos se llevan a cabo cada año en ciudades como Birmingham, Londres, Toronto y Minneapolis, donde los académicos y profesionales somalíes dan conferencias y responden preguntas de la audiencia. <hl> El propósito de estos eventos es recaudar dinero para nuevas escuelas o universidades en Somalia, para ayudar a los somalíes que han sufrido como consecuencia de inundaciones y / o sequías, o para reunir fondos para la creación de nuevas mezquitas como.')

Evaluation Metrics

Metrics

Dataset Type BLEU4 ROUGE-L METEOR BERTScore MoverScore Link
lmqg/qg_esquad default 0.08785998455701795 0.231305383218115 0.21658762330370077 0.8339217841152116 0.583354319136371 link

Training hyperparameters

The following hyperparameters were used during fine-tuning:

  • dataset_path: lmqg/qg_esquad
  • dataset_name: default
  • input_types: ['paragraph_answer', 'paragraph_sentence']
  • output_types: ['question', 'answer']
  • prefix_types: ['qg', 'ae']
  • model: google/mt5-small
  • max_length: 512
  • max_length_output: 32
  • epoch: 5
  • batch: 16
  • lr: 0.001
  • fp16: False
  • random_seed: 1
  • gradient_accumulation_steps: 4
  • label_smoothing: 0.15

The full configuration can be found at fine-tuning config file.

Citation

TBA