pomelk1n's picture
Update README.md
43cb4c4 verified
metadata
license: apache-2.0
datasets:
  - pomelk1n/RuadaptQwen-Quantization-Dataset
language:
  - ru
base_model:
  - msu-rcc-lair/RuadaptQwen2.5-32B-instruct
pipeline_tag: text-generation
tags:
  - AWQ
  - GGUF
  - GEMM

RuadaptQwen2.5-32B-instruct-4-bit-AWQ-GGUF

Описание

Эта модель представляет собой квантизированную версию RuadaptQwen2.5-32B-instruct, выполненную с использованием Activation-aware Weight Quantization (AWQ) с 6-битной точностью, а затем экспортированную в формат GGUF.

Конфигурация квантизации

{
  "zero_point": true,
  "q_group_size": 128,
  "w_bit": 6,
  "version": "GEMM"
}

Шаги для экспорта в GGUF:

  1. AWQ квантизация: Вычисляются масштабы (scales) и применяются к модели.
  2. Сохранение модели в формате FP16: Весовые параметры сохраняются без полной квантизации.
  3. Преобразование в GGUF: Используется convert.py для преобразования весов из формата HuggingFace FP16 в GGUF FP16.
  4. Квантизация GGUF: Применяется финальная квантизация в формате GGUF (например, 4-битная) для достижения реального сжатия.