File size: 4,681 Bytes
a124fd9 0a6a957 a124fd9 0a6a957 5f8d80e a124fd9 0a6a957 5f8d80e 0a6a957 ecab153 0a6a957 a124fd9 2783f9e a124fd9 2783f9e a124fd9 2783f9e a124fd9 2783f9e a124fd9 2783f9e a124fd9 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 |
---
language: sv
license: mit
datasets:
- Gabriel/xsum_swe
tags:
- summarization
widget:
- text:
'Jordan Hill, Bretagne Covington och Tesfaye Cooper, alla 18, och Tanishia Covington, 24, dök upp i en Chicagodomstol på fredag. De fyra har åtalats för hatbrott och grov kidnappning och misshandel, bland annat. En insamling på nätet till deras offer har hittills samlat in $51.000 (=42.500 pund). Domare Maria Kuriakos Ciesil förnekade borgen och frågade: Var fanns din anständighetskänsla? Åklagarna berättade för domstolen att misshandeln började i en skåpbil och fortsatte i ett hus, där de misstänkta påstås ha tvingat det 18-åriga vita offret, som lider av schizofreni och problem med uppmärksamhetsbrist, att dricka toalettvatten och kyssa golvet. Polisen hävdar att skåpbilen tidigare stals av Mr Hill, som också anklagas för att ha krävt 300 dollar av offrets mor medan de höll honom fången, enligt Chicago Tribune. Rätten fick också veta att de misstänkta stoppade en strumpa i munnen, tejpade igen munnen och band händerna med ett bälte. I en video gjord för Facebook Live som har setts miljontals gånger, kan angriparna höras göra nedsättande uttalanden mot vita människor och Donald Trump. Offret hade släppts av på en McDonalds för att träffa Mr Hill - som var en av hans vänner - den 31 december. Han hittades av en polis tisdagen den 3 januari, en dag efter att han anmäldes saknad av sina föräldrar. Åklagarna säger att de misstänkta möter två hatbrott räknas, en på grund av offrets ras och den andra på grund av hans funktionshinder.'
inference:
parameters:
temperature: 0.7
min_length: 30
max_length: 120
model-index:
- name: bart-base-cnn-xsum-swe
results:
- task:
type: summarization
name: summarization
dataset:
name: Gabriel/xsum_swe
type: Gabriel/xsum_swe
split: validation
metrics:
- name: Validation ROGUE-1.
type: rouge-1
value: 30.9467
verified: true
- name: Validation ROGUE-2
type: rouge-2
value: 12.2589
verified: true
- name: Validation ROGUE-L
type: rouge-l
value: 25.4487
verified: true
- name: Validation ROGUE-L-SUM
type: rouge-l-sum
value: 25.4792
verified: true
train-eval-index:
- config: Gabriel--xsum_swe
task: summarization
task_id: summarization
splits:
eval_split: train
col_mapping:
document: text
summary: target
co2_eq_emissions:
emissions: 0.0334
source: Google Colab
training_type: fine-tuning
geographical_location: Fredericia, Denmark
hardware_used: Tesla P100-PCIE-16GB
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# bart-base-cnn-xsum-swe
This model is a fine-tuned version of [Gabriel/bart-base-cnn-swe](https://huggingface.co/Gabriel/bart-base-cnn-swe) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 2.1027
- Rouge1: 30.9467
- Rouge2: 12.2589
- Rougel: 25.4487
- Rougelsum: 25.4792
- Gen Len: 19.7379
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 4e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 4
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len |
|:-------------:|:-----:|:-----:|:---------------:|:-------:|:-------:|:-------:|:---------:|:-------:|
| 2.3076 | 1.0 | 6375 | 2.1986 | 29.7041 | 10.9883 | 24.2149 | 24.2406 | 19.7193 |
| 2.0733 | 2.0 | 12750 | 2.1246 | 30.4521 | 11.8107 | 24.9519 | 24.9745 | 19.6592 |
| 1.8933 | 3.0 | 19125 | 2.0989 | 30.9407 | 12.2682 | 25.4135 | 25.4378 | 19.7195 |
| 1.777 | 4.0 | 25500 | 2.1027 | 30.9467 | 12.2589 | 25.4487 | 25.4792 | 19.7379 |
### Framework versions
- Transformers 4.22.2
- Pytorch 1.12.1+cu113
- Datasets 2.5.1
- Tokenizers 0.12.1
|