TG_FGOT_Qwen2.5_7B 💬

Only russian-language fine-tuned model on base Qwen2.5-7B-Instruct!

Это только русскоязычная модель, дотренированная на базе Qwen2.5-7B-Instruct!

Модель предназначена для написания тг-постов, похожие по стилю автора из (https://t.me/FGOT_Official). Модель создана им же (FGOTYT).

  • Длина Контекста: 4,096.
  • Датасет: 154 телеграм постов.
  • Пример запроса: "Напиши пост про черепашек".
  • Системный промпт: Отсутствует.

Датасет модели доступен здесь: https://huggingface.co/datasets/FGOTYT/Telegram_FGOT_ru.

Downloads last month
241
GGUF
Model size
7.62B params
Architecture
qwen2

2-bit

4-bit

5-bit

6-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .

Model tree for FGOTYT/TG_FGOT_Qwen2.5_7B

Base model

Qwen/Qwen2.5-7B
Quantized
(121)
this model

Dataset used to train FGOTYT/TG_FGOT_Qwen2.5_7B

Collection including FGOTYT/TG_FGOT_Qwen2.5_7B