Skip to main content

Author

Shuang LIANG - The University of Tokyo

Abstract

Large Language Models (LLMs) သည် natural language tasks များတွင် outstanding performance ပြသခဲ့ပါသည်။ ဤဆောင်းပါးသည် Chinese-to-English machine translation အတွက် Llama 3.1 fine-tuning ကို explore လုပ်ပြီး training နှင့် decoding strategies များမှတစ်ဆင့် hallucination ၏ challenge ကို address လုပ်ပါသည်။ အဓိက ရလဒ်များ:
  • Fine-tuned model သည် document-level data တွင် baseline 19.6 ထက် BLEU 40.8 ရရှိခဲ့ပြီး
  • Baseline 0.820 ထက် COMET 0.891 ရရှိခဲ့ပြီး
  • Long-context translations တွင် hallucination ကို successfully mitigate လုပ်နိုင်ခဲ့ပြီး
  • Document-level performance improve လုပ်စဉ် sentence-level quality ထိန်းသိမ်းနိုင်ခဲ့ပြီး

1. Background

Large Language Models

Llama ကဲ့သို့သော LLMs သည် NLP ကို revolutionize လုပ်ခဲ့ပြီး human-like text နားလည်ခြင်းနှင့် generate ခြင်းတွင် remarkable capabilities ပြသခဲ့ပါသည်။ ၎င်းတို့ကို specific tasks အတွက် fine-tune လုပ်နိုင်သောကြောင့် machine translation enhance လုပ်ရန် ideal ဖြစ်ပါသည်။

Parameter-Efficient Fine-Tuning (LoRA)

LoRA (Low-Rank Adaptation) သည် model parameters အားလုံး update မလုပ်ဘဲ fine-tuning enable လုပ်ပါသည်:
  • Pre-trained model parameters များကို freeze လုပ်သည်
  • Trainable low-rank matrices များ insert လုပ်သည်
  • Training cost နှင့် time ကို significantly reduce လုပ်သည်

Neural Machine Translation နှင့် Hallucination

NMT တွင် Hallucination သည် unfaithful, fabricated သို့မဟုတ် nonsensical content ကို refer လုပ်ပါသည်:
TypeDescription
Intrinsic HallucinationsOutput တွင် source နှင့ compare လုပ်လျှင် incorrect information ပါဝင်သည်
Extrinsic HallucinationsModel သည် additional unrelated content generate လုပ်သည်
Perturbation HallucinationsPerturbed vs unperturbed input အတွက် drastically different output
Natural HallucinationsTraining dataset ရှိ noise နှင့် connected

2. Experiments

Datasets

DatasetDocumentsSentencesWords (src/tgt)
NewsCommentary-v18.111,147443,67716.4M/9.7M
Ted Talks221,94951K/32K

Environment

  • Model: Llama 3.1 8B Instruct
  • GPU: NVIDIA A100 (80GB)
  • Framework: Accelerated training အတွက် Unsloth

3. Results

In-Distribution Performance (Document-Level)

Training SamplesBLEUCOMET
1035.80.885
10036.90.889
1,00039.70.890
10,00040.80.891
Baseline19.60.820
Fine-tuning သည် document-level translations တွင် baseline ထက် BLEU 100% ကျော် improve လုပ်ခဲ့ပါသည်။

Hallucination Analysis

တွေ့ရှိသော Types များ:
  1. Premature stopping: Model သည် translation complete မဖြစ်မီ EOS token generate လုပ်သည်
  2. Redundant content: Document-level models များသည် translation ထက်ကျော်လွန်သော lengthy explanations generate လုပ်သည်
Mitigation strategies:
  • EOS token probability thresholding
  • Mixed document/sentence-level training
  • Careful dataset preparation
Document-level fine-tuned models များသည် implicit prior knowledge ဖြင့် lengthy outputs generate တတ်ပြီး တခါတရံ factual but off-topic content produce လုပ်တတ်ပါသည်။

4. Conclusion

Proper dataset preparation နှင့် fine-tuning techniques ဖြင့်:
  1. Translation quality ကို significantly improve လုပ်နိုင်သည် (2x BLEU improvement)
  2. Hallucination issues များ mitigate လုပ်နိုင်သည်
  3. Document-level performance enhance လုပ်စဉ် sentence-level quality ထိန်းသိမ်းနိုင်သည်
  4. ပိုမို reliable နှင့် coherent translations produce လုပ်နိုင်သည်

References

  1. Kocmi, T., et al. (2022). “Findings of the 2022 conference on machine translation (WMT22).”
  2. Hu, E., et al. (2021). “LoRA: Low-Rank Adaptation of Large Language Models.”
  3. Ji, Z., et al. (2023). “Survey of Hallucination in Natural Language Generation.”