metadata
language: sv
license: mit
datasets:
- Gabriel/cnn_daily_swe
tags:
- summarization
widget:
- text: >-
Frankrike lås Sebastien Chabal har nämnts för en farlig tackling på
Englands Simon Shaw under lördagens VM semifinal i Paris. Simon Shaw
lastar av trots att Raphael Ibanez, vänster, och Sebastien Chabal. Sale
Sharks framåt kommer att ställas inför en disciplinär utfrågning på måndag
efter hans tackling på motsatt andra-rower Shaw noterades genom att citera
kommissionär Dennis Wheelahan. Chabal började matchen på
ersättningsbänken, men kom i 26: e minuten att ersätta den skadade Fabien
Pelous under värd Frankrikes 14-9 nederlag. Om han blir avstängd missar
Chabal fredagens tredje och fjärde match på Parc des Princes. Samtidigt,
Frankrike tränare Bernard Laporte sade att nederlaget var svårare att ta
än Englands 24-7 seger i 2003 semifinalen. "År 2003 var de bättre än oss.
I själva verket var de bättre än alla", sade Laporte, som lämnar sin roll
att tillträda posten som junior idrottsminister i den franska regeringen.
"De var som Nya Zeeland i denna turnering - favoriten, förutom att de gick
hela vägen. Den här gången är det svårare för igår var det 50-50."
Samtidigt, England -- försöker bli den första nationen att försvara
VM-titeln -- avslöjade att stjärna kicker Jonny Wilkinson återigen hade
problem med matchbollarna under semifinalen. Flughalvan, som uttryckte sin
oro efter att ha kämpat med stöveln mot Australien, avvisade en boll innan
han sparkade en vital trepoängare mot Frankrike. "Vi sa det inte förra
veckan men en icke-match bollen kom ut på fältet i Marseille som Jonny
sparkade," chef för rugby Rob Andrew sade. "Han tänkte inte på det när han
sparkade det. Matchbollarna är märkta, numrerade ett till sex. Igår kväll
hade de "World Cup semifinal England vs Frankrike" skrivet på dem. På
matchkvällen var Jonny vaksam när han sparkade för mål att de faktiskt var
matchbollar han sparkade. "Träningsbollarna förlorar tryck och form. Hela
frågan förra veckan, arrangörerna accepterade alla sex matchbollar bör
användas av båda sidor på torsdagen före matchen. " E-post till en vän.
inference:
parameters:
temperature: 0.7
min_length: 30
max_length: 120
model-index:
- name: bart-base-cnn-xsum-swe
results:
- task:
type: summarization
name: summarization
dataset:
name: Gabriel/xsum_swe
type: Gabriel/xsum_swe
split: validation
metrics:
- name: Validation ROGUE-1.
type: rouge-1
value: 30.9467
verified: true
- name: Validation ROGUE-2
type: rouge-2
value: 12.2589
verified: true
- name: Validation ROGUE-L
type: rouge-l
value: 25.4487
verified: true
- name: Validation ROGUE-L-SUM
type: rouge-l-sum
value: 25.4792
verified: true
train-eval-index:
- config: Gabriel--xsum_swe
task: summarization
task_id: summarization
splits:
eval_split: train
col_mapping:
document: text
summary: target
co2_eq_emissions:
emissions: 0.0334
source: Google Colab
training_type: fine-tuning
geographical_location: Fredericia, Denmark
hardware_used: Tesla P100-PCIE-16GB
bart-base-cnn-xsum-swe
This model is a fine-tuned version of Gabriel/bart-base-cnn-swe on the None dataset. It achieves the following results on the evaluation set:
- Loss: 2.1027
- Rouge1: 30.9467
- Rouge2: 12.2589
- Rougel: 25.4487
- Rougelsum: 25.4792
- Gen Len: 19.7379
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 4e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 4
- mixed_precision_training: Native AMP
Training results
Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len |
---|---|---|---|---|---|---|---|---|
2.3076 | 1.0 | 6375 | 2.1986 | 29.7041 | 10.9883 | 24.2149 | 24.2406 | 19.7193 |
2.0733 | 2.0 | 12750 | 2.1246 | 30.4521 | 11.8107 | 24.9519 | 24.9745 | 19.6592 |
1.8933 | 3.0 | 19125 | 2.0989 | 30.9407 | 12.2682 | 25.4135 | 25.4378 | 19.7195 |
1.777 | 4.0 | 25500 | 2.1027 | 30.9467 | 12.2589 | 25.4487 | 25.4792 | 19.7379 |
Framework versions
- Transformers 4.22.2
- Pytorch 1.12.1+cu113
- Datasets 2.5.1
- Tokenizers 0.12.1