@Update : 2024-11-27
KoAlpaca-Polyglot-5.8B
- 이준범님 모델 기반으로 생성
- 데이터셋 : AiHub 채용 면접 인터뷰 데이터 : https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=data&dataSetSn=71592
'loss': 2.1778, 'grad_norm': 5.742631912231445, 'learning_rate': 1.831713150322434e-07, 'epoch': 4.86
Trainargument
epochs : 5
batch_size : 2
gradient_accumulation_steps : 32
weight_decay : 0.02
optim : paged_adamw_32bit
learning_rate: 1e-5
총론
- GCP V100 1대 사용
- 아쉽게도 배치사이즈를 늘릴 수가 없는 상황(최소 A100은 되어야 RAM 보장됨, V100으로는 훈련중 터짐 )
- Validation 불가
- 램 용량 부하로 인해 validation을 불가한 상황
- 인퍼런스 및 양자화
- 추후 재 설계 예정
- Downloads last month
- 3
Model tree for UICHEOL-HWANG/KoAlpaca-InterView-5.8B
Base model
EleutherAI/polyglot-ko-5.8b
Finetuned
beomi/KoAlpaca-Polyglot-5.8B