File size: 2,142 Bytes
66eb02f 5df95c3 41cf768 66eb02f 5df95c3 66eb02f 5df95c3 41cf768 66eb02f 4cfad83 66eb02f 4cfad83 66eb02f 4cfad83 66eb02f 4cfad83 66eb02f |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 |
---
language:
- de
license: mit
tags:
- question generation
datasets:
- deepset/germanquad
widget:
- text: Naturschutzwarte haben auf der ostfriesischen Insel Wangerooge zwei seltene
Kurzschnäuzige Seepferdchen entdeckt. Die Tiere seien vergangene Woche bei einer
sogenannten Spülsaumkontrolle entdeckt worden, bei der die Strände eigentlich
nach Müll und toten Vögeln abgesucht würden, sagte der Geschäftsführer der zuständigen
Naturschutz- und Forschungsgemeinschaft Mellumrat, Mathias Heckroth. Dabei seien
den Naturschützern am Nordstrand kurz hintereinander die beiden leblosen, nur
wenige Zentimeter großen Tiere aufgefallen. Experten der Nationalparkverwaltung
bestimmten beide Tiere als Kurzschnäuzige Seepferdchen (Hippocampus hippocampus).
inference:
parameters:
max_length: 128
base_model: valhalla/t5-base-e2e-qg
model-index:
- name: german-qg-t5-e2e-quad
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# german-qg-t5-e2e-quad (Work in progress)
This model is a end-to-end question generation model in German. Given a text, it generates several questions about it. This model is a fine-tuned version of [valhalla/t5-base-e2e-qg](https://huggingface.co/valhalla/t5-base-e2e-qg) on the [GermanQuAD dataset from deepset](https://huggingface.co/datasets/deepset/germanquad).
## Model description
More information needed
## Training and evaluation data
Bleu_1: 0.196051
Bleu_2: 0.122380
Bleu_3: 0.079980
Bleu_4: 0.053672
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 8
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 10.0
### Training results
### Framework versions
- Transformers 4.16.0.dev0
- Pytorch 1.10.0+cu111
- Datasets 1.16.1
- Tokenizers 0.10.3
|