File size: 4,087 Bytes
eae79b7
 
5bb9256
 
 
 
 
 
 
 
 
 
 
eae79b7
 
34cdc7e
5bb9256
 
034aec4
116d00a
 
26c9d93
 
 
5bb9256
 
 
26c9d93
116d00a
 
 
 
 
26c9d93
 
116d00a
5bb9256
 
 
116d00a
26c9d93
116d00a
26c9d93
5bb9256
116d00a
34cdc7e
5bb9256
 
116d00a
5bb9256
116d00a
 
 
 
5bb9256
 
116d00a
881a4ff
116d00a
 
 
 
 
 
 
 
 
5bb9256
116d00a
5bb9256
116d00a
 
 
 
 
 
5bb9256
 
116d00a
34cdc7e
116d00a
 
 
1f02434
116d00a
 
 
 
 
 
 
1f02434
116d00a
 
 
 
1f02434
116d00a
 
 
 
 
 
 
 
 
 
 
 
1f02434
116d00a
 
 
 
 
 
 
 
5b589d1
116d00a
 
 
 
75cf8d8
116d00a
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
---
license: apache-2.0
license_link: https://www.apache.org/licenses/LICENSE-2.0
language:
- fr
base_model:
- unsloth/Meta-Llama-3.1-8B
pipeline_tag: text-generation
library_name: transformers
tags:
- fiscalité
- génération-de-texte
- français
---

# LLM - Assistant Expert


Ce modèle est un **LLM Meta-Llama-3.1-8B fine tuné** pour le domaine de la fiscalité française. Il peut répondre à des questions spécifiques sur la fiscalité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence en matière fiscalité française.

### Caractéristiques principales
- Orienté pour la fiscalité française
- Question réponse
- Dataset d'entainement de référence

## Configuration requise

### Librairies dépendances
transformers>=4.46.0
torch>=2.0.0
accelerate>=0.33.0
bitsandbytes>=0.39.0

### Configuration ressource inférence
- GPU
- CUDA compatible

## Démarrage rapide

### Installation
```bash
pip install transformers torch accelerate bitsandbytes
```

### Utilisation basique
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Aktraiser/model_test1"
Chargement du modèle avec configuration optimisée
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto",
load_in_4bit=True
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Format de prompt recommandé
prompt_template = """Tu es un expert en fiscalité.
Texte principal:
{texte}
Question:
{question}
Réponse:
Exemple d'utilisation
texte = "Le régime micro-entrepreneur permet des démarches simplifiées pour la création, la déclaration, et le paiement des cotisations."
question = "Qu'est-ce que le régime de la micro-entreprise ?"
prompt = prompt_template.format(texte=texte, question=question)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
Génération avec paramètres optimisés
generated_ids = model.generate(
inputs,
max_new_tokens=512,
temperature=0.7,
top_p=0.95,
repetition_penalty=1.15,
do_sample=True
)
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
```
## Paramètres de génération recommandés

Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :
```python
generation_params = {
"max_new_tokens": 512, # Longueur maximale de la réponse
"temperature": 0.7, # Créativité de la réponse
"top_p": 0.95, # Filtrage des tokens
"repetition_penalty": 1.15, # Évite les répétitions
"do_sample": True # Génération stochastique
}
```

## Utilisation avec l'API Hugging Face

Le modèle est également disponible via l'API Hugging Face Inference :
```python
from huggingface_hub import InferenceClient
client = InferenceClient("https://api-inference.huggingface.co/models/Aktraiser/model_test1")
def query(payload):
response = client.post(json=payload)
return response.json()
Exemple de requête
payload = {
"inputs": prompt,
"parameters": generation_params
}
response = query(payload)
print(response)
```
## Limitations connues

- Le modèle est spécialisé dans la fiscalité française et peut avoir des performances limitées sur d'autres domaines
- Les réponses sont basées sur les données d'entraînement et peuvent nécessiter une vérification pour les cas complexes
- La qualité des réponses dépend de la clarté et de la précision du texte de référence fourni

## Licence

Ce modèle est basé sur **Meta-Llama-3.1-8B** de Meta AI.

## Citation

Si vous utilisez ce modèle dans vos travaux, veuillez citer :
```bibtex
@misc{llm-fiscalite,
author = {Aktraiser},
title = {LLM Fiscalité - Assistant Expert en Fiscalité Française},
year = {2024},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://huggingface.co/Aktraiser/model_test1}}
}

```

Ce README fournit une documentation complète de votre modèle, incluant l'installation, l'utilisation, les paramètres recommandés et les limitations. Il est structuré de manière à être facilement compréhensible pour les utilisateurs potentiels.