AI

[LLM] PEFT, fine tuning, LLM evalatuation metric ( ROUGE, BLEU)

아나엘 2023. 9. 18. 20:18

PEFT : 모델의 original weights는 그대로 두고 일부만 사용해서 튜닝..

single task에 대해서만 fine tuning 하면 그 task에 대해서는 정확하겠지만 여러 task에 일반화 불가.multi task에 대해서 fine tuning 하는 방법, 아니면 PEFT로 하면 됨.

 

FINE-tuned language net ( FLAN)

metaphorical dessert to the main course of pretraining . 

FLAN-T5 -> (general purpose, instruct model)473datasets에 대해서 146 task 카테고리에 대해 학습됨

FLAN-PALM

 

SAMSum: a dialogue dataset

 

 

BLEU: how many n grams in the machine generated translation match thoese in the reference translation

LoRA: low rank representation으로 모델 가중치를 재파라미터화

반응형