Skip to main content

Penulis

Kai-Teh Tzeng - Lehigh University

Abstrak

Kajian ini meneroka penggunaan Retrieval-Augmented Fine-Tuning (RAFT) untuk meningkatkan terjemahan dwiarah Inggeris-Cina dengan Llama 3.1-8B. RAFT menggabungkan mekanisme pengambilan dengan penalaan halus untuk menyediakan contoh kontekstual semasa latihan. Penemuan Utama:
  • Penalaan halus penanda aras mencapai keputusan keseluruhan terbaik
  • RAFT menunjukkan peningkatan sederhana pada metrik tertentu
  • RAFT berasaskan rawak kadangkala mengatasi RAFT berasaskan kesamaan
  • Kualiti terjemahan sangat bergantung pada relevansi data latihan

1. Pengenalan

Latar Belakang

Model Bahasa Besar cemerlang dalam tugas bahasa tetapi boleh mendapat manfaat daripada pengoptimuman khusus domain. Penyelidikan ini meneroka sama ada RAFT - teknik yang menambah latihan dengan contoh yang diambil - boleh meningkatkan kualiti terjemahan.

Soalan Penyelidikan

  1. Bolehkah RAFT meningkatkan terjemahan berbanding penalaan halus standard?
  2. Adakah pengambilan berasaskan kesamaan mengatasi pengambilan rawak?
  3. Bagaimana konfigurasi RAFT yang berbeza mempengaruhi terjemahan dwiarah?

2. Metodologi

Gambaran Keseluruhan RAFT

RAFT (Retrieval-Augmented Fine-Tuning) meningkatkan proses latihan dengan:
  1. Mengambil contoh yang relevan dari korpus untuk setiap sampel latihan
  2. Menambah konteks latihan dengan contoh yang diambil
  3. Menala halus model dengan konteks yang diperkaya ini
Diagram RAFT

Diagram metodologi RAFT

Persediaan Eksperimen

KomponenKonfigurasi
Model AsasLlama 3.1-8B Instruct
Penalaan HalusLoRA (r=16, alpha=16)
Set DataNews Commentary v18.1 (zh-en)
GPUNVIDIA A100 80GB

Penyediaan Set Data

Set data News Commentary mengandungi pasangan ayat selari Inggeris-Cina:
  • Latihan: 10,000 pasangan ayat
  • Penilaian: Korpus TED Talks
  • Dipra-proses untuk kualiti dan konsistensi panjang

Konfigurasi RAFT

KonfigurasiPenerangan
Penanda ArasPenalaan halus standard tanpa pengambilan
RAFT KesamaanAmbil contoh k teratas yang serupa menggunakan embeddings
RAFT RawakSampel k contoh secara rawak dari korpus

3. Keputusan

Terjemahan Inggeris-ke-Cina

KaedahBLEUCOMET
Garis Dasar (Tanpa Penalaan Halus)15.20.785
Penalaan Halus Penanda Aras28.40.856
RAFT Kesamaan (k=3)27.10.849
RAFT Rawak (k=3)27.80.852

Terjemahan Cina-ke-Inggeris

KaedahBLEUCOMET
Garis Dasar (Tanpa Penalaan Halus)18.70.812
Penalaan Halus Penanda Aras31.20.871
RAFT Kesamaan (k=3)30.50.865
RAFT Rawak (k=3)30.90.868
Penalaan halus penanda aras secara konsisten mengatasi konfigurasi RAFT dalam eksperimen ini. Ini mungkin disebabkan sifat homogen set data News Commentary.
Carta Prestasi 1

Perbandingan prestasi latihan

Carta Prestasi 2

Perbandingan skor BLEU dan COMET

Analisis

Mengapa RAFT tidak mengatasi penanda aras:
  1. Kehomogenan Set Data: News Commentary mempunyai gaya yang konsisten
  2. Kualiti Pengambilan: Metrik kesamaan mungkin tidak menangkap ciri yang relevan untuk terjemahan
  3. Panjang Konteks: Contoh tambahan meningkatkan konteks, berpotensi mencairkan tumpuan

4. Kesimpulan

Walaupun RAFT menunjukkan potensi, eksperimen kami mencadangkan bahawa untuk tugas terjemahan pada set data yang homogen, penalaan halus standard kekal kompetitif. Kerja masa depan harus meneroka korpus latihan yang pelbagai dan metrik pengambilan yang lebih baik.

Rujukan

  1. Zhang, T., et al. (2024). “RAFT: Adapting Language Model to Domain Specific RAG.”
  2. Lewis, P., et al. (2020). “Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks.”
  3. Hu, E., et al. (2021). “LoRA: Low-Rank Adaptation of Large Language Models.”