File size: 1,134 Bytes
80a1cba 408229a 77e9713 51b3f62 6488f7b 80a1cba 7f198e8 80a1cba e113c0f |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 |
---
license: apache-2.0
language:
- da
---
# DanskGPT-tiny
<img src="tiny-danskgpt.png" width="500" height="500">
DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af [TinyLLaMA](https://huggingface.co/TinyLlama/TinyLlama-1.1B-intermediate-step-1431k-3T).
Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst.
Denne model er en såkaldt "foundation/completion" model, og er derfor ikke beregnet til at chatte med.
## Inferens
Ved brug af vLLM.
```
pip install vllm
```
```python
from vllm import LLM, SamplingParams
sampling_params = SamplingParams(temperature=0.8, top_p=0.95, max_tokens=512)
llm = LLM(model="mhenrichsen/danskgpt-tiny")
while True:
prompt = input("Skriv: ")
outputs = llm.generate(prompt, sampling_params)
for output in outputs:
prompt = output.prompt
generated_text = output.outputs[0].text
print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")
```
## Brug for hjælp?
Har du spørgsmål eller brug for hjælp til LLM'er eller automatisering af tekstbaserede opgaver, så kontakt mig gerne.
/Mads
|