AI
[LLM] PEFT, fine tuning, LLM evalatuation metric ( ROUGE, BLEU)
아나엘
2023. 9. 18. 20:18
PEFT : 모델의 original weights는 그대로 두고 일부만 사용해서 튜닝..
single task에 대해서만 fine tuning 하면 그 task에 대해서는 정확하겠지만 여러 task에 일반화 불가.multi task에 대해서 fine tuning 하는 방법, 아니면 PEFT로 하면 됨.
FINE-tuned language net ( FLAN)
metaphorical dessert to the main course of pretraining .
FLAN-T5 -> (general purpose, instruct model)473datasets에 대해서 146 task 카테고리에 대해 학습됨
FLAN-PALM
SAMSum: a dialogue dataset
BLEU: how many n grams in the machine generated translation match thoese in the reference translation
LoRA: low rank representation으로 모델 가중치를 재파라미터화
반응형