File size: 1,272 Bytes
b75986f
 
0df10f1
b75986f
 
 
 
 
 
 
 
0df10f1
 
b75986f
 
0df10f1
b75986f
 
 
 
 
0df10f1
b75986f
0df10f1
 
 
 
 
 
 
 
 
 
72ad70f
 
 
0df10f1
72ad70f
 
 
 
 
0df10f1
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
---
language:
- hu
license: apache-2.0
tags:
- text-generation-inference
- transformers
- unsloth
- mistral
- trl
base_model: unsloth/mistral-7b-bnb-4bit
datasets:
- SZTAKI-HLT/HunSum-1
---

# Mistral-7b-0.1-hu

- **Developed by:** Bazsalanszky
- **License:** apache-2.0
- **Finetuned from model :** unsloth/mistral-7b-bnb-4bit

Ez a mistral 7b model magyar szövegre lett tanítva 10 000 véletlenszerűen kiválasztott cikken. Így valamivel szebben ír magyarul, mint az alap model. 

## Fontos

Ez a modell NEM lett instrukciókra tanítva, valószínűleg nem fogja azokat követni.

## Példa használat

```python
# Load model directly
from transformers import AutoTokenizer, AutoModel

# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-v0.1")
model = AutoModelForCausalLM.from_pretrained("mistralai/Mistral-7B-v0.1")

adapter_name = model.load_adapter("Bazsalanszky/Mistral-7b-0.1-hu")

model.active_adapters = adapter_name

inputs = tokenizer("Magyarország\nFővárosa:", return_tensors = "pt").to("cpu")

from transformers import TextStreamer
text_streamer = TextStreamer(tokenizer)
_ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 250)
```