Author
Shuang LIANG - The University of Tokyo
Abstract
Large Language Models (LLMs) သည် natural language tasks များတွင် outstanding performance ပြသခဲ့ပါသည်။ ဤဆောင်းပါးသည် Chinese-to-English machine translation အတွက် Llama 3.1 fine-tuning ကို explore လုပ်ပြီး training နှင့် decoding strategies များမှတစ်ဆင့် hallucination ၏ challenge ကို address လုပ်ပါသည်။
အဓိက ရလဒ်များ:
- Fine-tuned model သည် document-level data တွင် baseline 19.6 ထက် BLEU 40.8 ရရှိခဲ့ပြီး
- Baseline 0.820 ထက် COMET 0.891 ရရှိခဲ့ပြီး
- Long-context translations တွင် hallucination ကို successfully mitigate လုပ်နိုင်ခဲ့ပြီး
- Document-level performance improve လုပ်စဉ် sentence-level quality ထိန်းသိမ်းနိုင်ခဲ့ပြီး
1. Background
Large Language Models
Llama ကဲ့သို့သော LLMs သည် NLP ကို revolutionize လုပ်ခဲ့ပြီး human-like text နားလည်ခြင်းနှင့် generate ခြင်းတွင် remarkable capabilities ပြသခဲ့ပါသည်။ ၎င်းတို့ကို specific tasks အတွက် fine-tune လုပ်နိုင်သောကြောင့် machine translation enhance လုပ်ရန် ideal ဖြစ်ပါသည်။
Parameter-Efficient Fine-Tuning (LoRA)
LoRA (Low-Rank Adaptation) သည် model parameters အားလုံး update မလုပ်ဘဲ fine-tuning enable လုပ်ပါသည်:
- Pre-trained model parameters များကို freeze လုပ်သည်
- Trainable low-rank matrices များ insert လုပ်သည်
- Training cost နှင့် time ကို significantly reduce လုပ်သည်
Neural Machine Translation နှင့် Hallucination
NMT တွင် Hallucination သည် unfaithful, fabricated သို့မဟုတ် nonsensical content ကို refer လုပ်ပါသည်:
| Type | Description |
|---|
| Intrinsic Hallucinations | Output တွင် source နှင့ compare လုပ်လျှင် incorrect information ပါဝင်သည် |
| Extrinsic Hallucinations | Model သည် additional unrelated content generate လုပ်သည် |
| Perturbation Hallucinations | Perturbed vs unperturbed input အတွက် drastically different output |
| Natural Hallucinations | Training dataset ရှိ noise နှင့် connected |
2. Experiments
Datasets
| Dataset | Documents | Sentences | Words (src/tgt) |
|---|
| NewsCommentary-v18.1 | 11,147 | 443,677 | 16.4M/9.7M |
| Ted Talks | 22 | 1,949 | 51K/32K |
Environment
- Model: Llama 3.1 8B Instruct
- GPU: NVIDIA A100 (80GB)
- Framework: Accelerated training အတွက် Unsloth
3. Results
| Training Samples | BLEU | COMET |
|---|
| 10 | 35.8 | 0.885 |
| 100 | 36.9 | 0.889 |
| 1,000 | 39.7 | 0.890 |
| 10,000 | 40.8 | 0.891 |
| Baseline | 19.6 | 0.820 |
Fine-tuning သည် document-level translations တွင် baseline ထက် BLEU 100% ကျော် improve လုပ်ခဲ့ပါသည်။
Hallucination Analysis
တွေ့ရှိသော Types များ:
- Premature stopping: Model သည် translation complete မဖြစ်မီ EOS token generate လုပ်သည်
- Redundant content: Document-level models များသည် translation ထက်ကျော်လွန်သော lengthy explanations generate လုပ်သည်
Mitigation strategies:
- EOS token probability thresholding
- Mixed document/sentence-level training
- Careful dataset preparation
Document-level fine-tuned models များသည် implicit prior knowledge ဖြင့် lengthy outputs generate တတ်ပြီး တခါတရံ factual but off-topic content produce လုပ်တတ်ပါသည်။
4. Conclusion
Proper dataset preparation နှင့် fine-tuning techniques ဖြင့်:
- Translation quality ကို significantly improve လုပ်နိုင်သည် (2x BLEU improvement)
- Hallucination issues များ mitigate လုပ်နိုင်သည်
- Document-level performance enhance လုပ်စဉ် sentence-level quality ထိန်းသိမ်းနိုင်သည်
- ပိုမို reliable နှင့် coherent translations produce လုပ်နိုင်သည်
References
- Kocmi, T., et al. (2022). “Findings of the 2022 conference on machine translation (WMT22).”
- Hu, E., et al. (2021). “LoRA: Low-Rank Adaptation of Large Language Models.”
- Ji, Z., et al. (2023). “Survey of Hallucination in Natural Language Generation.”