metadata
license: cc-by-4.0
metrics:
- bleu4
- meteor
- rouge-l
- bertscore
- moverscore
language: es
datasets:
- lmqg/qg_esquad
pipeline_tag: text2text-generation
tags:
- question generation
- answer extraction
widget:
- text: >-
generate question: del <hl> Ministerio de Desarrollo Urbano <hl> ,
Gobierno de la India.
example_title: Question Generation Example 1
- text: >-
generate question: a <hl> noviembre <hl> , que es también la estación
lluviosa.
example_title: Question Generation Example 2
- text: >-
generate question: como <hl> el gobierno de Abbott <hl> que asumió el
cargo el 18 de septiembre de 2013.
example_title: Question Generation Example 3
- text: >-
<hl> En la diáspora somalí, múltiples eventos islámicos de recaudación de
fondos se llevan a cabo cada año en ciudades como Birmingham, Londres,
Toronto y Minneapolis, donde los académicos y profesionales somalíes dan
conferencias y responden preguntas de la audiencia. <hl> El propósito de
estos eventos es recaudar dinero para nuevas escuelas o universidades en
Somalia, para ayudar a los somalíes que han sufrido como consecuencia de
inundaciones y / o sequías, o para reunir fondos para la creación de
nuevas mezquitas como.
example_title: Answer Extraction Example 1
- text: >-
<hl> Los estudiosos y los histori a dores están divididos en cuanto a qué
evento señala el final de la era helenística. <hl> El período helenístico
se puede ver que termina con la conquista final del corazón griego por
Roma en 146 a. C. tras la guerra aquea, con la derrota final del reino
ptolemaico en la batalla de Actium en 31 a. Helenístico se distingue de
helénico en que el primero abarca toda la esfera de influencia griega
antigua directa, mientras que el segundo se refiere a la propia Grecia.
example_title: Answer Extraction Example 2
model-index:
- name: lmqg/mt5-small-esquad-multitask
results:
- task:
name: Text2text Generation
type: text2text-generation
dataset:
name: lmqg/qg_esquad
type: default
args: default
metrics:
- name: BLEU4
type: bleu4
value: 0.08785998455701795
- name: ROUGE-L
type: rouge-l
value: 0.231305383218115
- name: METEOR
type: meteor
value: 0.21658762330370077
- name: BERTScore
type: bertscore
value: 0.8339217841152116
- name: MoverScore
type: moverscore
value: 0.583354319136371
Language Models Fine-tuning on Question Generation: lmqg/mt5-small-esquad-multitask
This model is fine-tuned version of google/mt5-small for question generation task on the lmqg/qg_esquad (dataset_name: default). This model is fine-tuned on the answer extraction task as well as the question generation.
Overview
- Language model: google/mt5-small
- Language: es
- Training data: lmqg/qg_esquad (default)
- Online Demo: https://autoqg.net/
- Repository: https://github.com/asahi417/lm-question-generation
- Paper: TBA
Usage
from transformers import pipeline
model_path = 'lmqg/mt5-small-esquad-multitask'
pipe = pipeline("text2text-generation", model_path)
# Question Generation
question = pipe('generate question: del <hl> Ministerio de Desarrollo Urbano <hl> , Gobierno de la India.')
# Answer Extraction
answer = pipe('extract answers: <hl> En la diáspora somalí, múltiples eventos islámicos de recaudación de fondos se llevan a cabo cada año en ciudades como Birmingham, Londres, Toronto y Minneapolis, donde los académicos y profesionales somalíes dan conferencias y responden preguntas de la audiencia. <hl> El propósito de estos eventos es recaudar dinero para nuevas escuelas o universidades en Somalia, para ayudar a los somalíes que han sufrido como consecuencia de inundaciones y / o sequías, o para reunir fondos para la creación de nuevas mezquitas como.')
Evaluation Metrics
Metrics
Dataset | Type | BLEU4 | ROUGE-L | METEOR | BERTScore | MoverScore | Link |
---|---|---|---|---|---|---|---|
lmqg/qg_esquad | default | 0.08785998455701795 | 0.231305383218115 | 0.21658762330370077 | 0.8339217841152116 | 0.583354319136371 | link |
Training hyperparameters
The following hyperparameters were used during fine-tuning:
- dataset_path: lmqg/qg_esquad
- dataset_name: default
- input_types: ['paragraph_answer', 'paragraph_sentence']
- output_types: ['question', 'answer']
- prefix_types: ['qg', 'ae']
- model: google/mt5-small
- max_length: 512
- max_length_output: 32
- epoch: 5
- batch: 16
- lr: 0.001
- fp16: False
- random_seed: 1
- gradient_accumulation_steps: 4
- label_smoothing: 0.15
The full configuration can be found at fine-tuning config file.
Citation
TBA