@Update : 2024-11-27

KoAlpaca-Polyglot-5.8B


'loss': 2.1778, 'grad_norm': 5.742631912231445, 'learning_rate': 1.831713150322434e-07, 'epoch': 4.86
Trainargument
epochs : 5
batch_size : 2
gradient_accumulation_steps : 32
weight_decay : 0.02
optim : paged_adamw_32bit
learning_rate: 1e-5

총론

  1. GCP V100 1대 사용
  • 아쉽게도 배치사이즈를 늘릴 수가 없는 상황(최소 A100은 되어야 RAM 보장됨, V100으로는 훈련중 터짐 )
  1. Validation 불가
  • 램 용량 부하로 인해 validation을 불가한 상황
  1. 인퍼런스 및 양자화
  • 추후 재 설계 예정
Downloads last month
3
Safetensors
Model size
5.89B params
Tensor type
F32
·
Inference Examples
Unable to determine this model's library. Check the docs .

Model tree for UICHEOL-HWANG/KoAlpaca-InterView-5.8B

Finetuned
(1)
this model