Skip to main content
लेखक: Chen Yufeng - Waseda University

1. परिचय

ठूला भाषा मोडेलहरू (LLMs) ले input-label pairs मा conditioning मार्फत downstream tasks मा प्रभावशाली दक्षता देखाएका छन्। यो inference mode लाई in-context learning (Brown et al. 2020) भनिन्छ। GPT-4 ले विशेष कार्य उदाहरणहरू प्रदान गरेर fine-tuning बिना आफ्नो अनुवाद क्षमताहरू सुधार गर्न सक्छ।
In-context learning approach

Figure 1: Few-shot उदाहरणहरू प्रयोग गरेर चिनियाँ देखि अंग्रेजी अनुवादको लागि In-context learning

In-context learning को प्रभावकारिता Implicit Bayesian Inference (Xie et al. 2022) बाट आउँछ। उदाहरणहरूको Random selection ले GPT-4 लाई prompt concept बुझ्न प्रभावकारी रूपमा मद्दत गर्न सक्दैन। प्राथमिक उद्देश्य user input मा आधारित उपयुक्त उदाहरणहरूको रणनीतिक चयन हो।

2. प्रस्तावित विधि

यो विधिले अनुवाद जोडाहरू समावेश गर्ने Ds dataset मा पहुँच मान्दछ। Text retriever (Gao 2023) ले user prompt सँग समान अर्थ भएका शीर्ष K वाक्यहरू पत्ता लगाउँछ र चयन गर्दछ। Retriever मा दुई components छन्:
  1. TF-IDF Matrix - term frequency र inverse document frequency मापन गर्दछ
  2. Cosine Similarity - TF-IDF vectors बीच समानता मापन गर्दछ
Retriever architecture

Figure 2: Dataset बाट top-K उदाहरणहरू चयन गर्न TF-IDF matrix र cosine similarity प्रयोग गर्ने

3. प्रयोगात्मक सेटअप

3.1 प्रयोगात्मक प्रक्रिया

प्रयोगले तीन परिदृश्यहरू कभर गर्दछ:
  1. No ICL: In-context learning उदाहरणहरू बिना GPT-4 अनुवाद
  2. Random ICL: अनुवाद उदाहरणहरूको Random चयन
  3. प्रस्तावित विधि: TF-IDF retriever ले similarity scores मा आधारित शीर्ष 4 उदाहरणहरू चयन गर्दछ

मूल्यांकन Metrics

  • BLEU Score: Reference अनुवादहरूसँग अनुवादित segments तुलना गर्दछ
  • COMET Score: मानव निर्णयसँग state-of-the-art correlation प्राप्त गर्ने बहुभाषी MT मूल्यांकनको लागि Neural framework

3.2 Datasets

OPUS-100 (Zhang et al. 2020) छानिएको किनभने यो:
  • विविध अनुवाद भाषा जोडाहरू समावेश गर्दछ (ZH-EN, JA-EN, VI-EN)
  • प्रभावकारी उदाहरण चयनको लागि विविध domains कभर गर्दछ
Configuration:
  • Ds को लागि प्रति भाषा जोडा 10,000 प्रशिक्षण instances
  • मूल्यांकनको लागि test set बाट पहिलो 100 वाक्यहरू

4. परिणामहरू र छलफल

Results table

Table 1: सबै भाषा जोडाहरूको लागि तीन परिदृश्यहरूमा अनुवाद सटीकता

मुख्य निष्कर्षहरू:
  • प्रस्तावित दृष्टिकोणले सबै भाषा जोडाहरूमा उत्कृष्ट अनुवाद सटीकता देखाउँछ
  • BLEU score मा 1% सुधार मेशिन अनुवादमा significant हो
  • Random ICL ले कहिलेकाहीं no ICL भन्दा खराब प्रदर्शन गर्दछ
  • यसले विवेकी उदाहरण चयनको महत्त्व हाइलाइट गर्दछ

Dataset Size Impact

Dataset size impact

Table 2: विभिन्न dataset sizes को साथ अनुवाद सटीकता

1 million वाक्यहरूको साथ परीक्षणले ठूला Ds datasets ले GPT-4 task learning प्रभावकारिता सुधार गर्ने पुष्टि गर्यो।

5. निष्कर्ष र अगाडिका कदमहरू

यो कागजातले TF-IDF retrieval को साथ in-context learning मार्फत GPT-4 अनुवाद सुधार गर्ने विधि परिचय गर्दछ। दृष्टिकोणले:
  • TF-IDF matrix र cosine similarity प्रयोग गरेर retriever निर्माण गर्दछ
  • User prompts सँग नजिकबाट मिल्ने वाक्यहरू चयन गर्दछ
  • BLEU र COMET दुवै scores मा सुधारहरू देखाउँछ
भविष्यका अनुसन्धान दिशाहरू:
  1. Dataset निर्माण: Domains मा व्यापक, उच्च-गुणस्तर अनुवाद datasets सिर्जना गर्ने
  2. उदाहरण मात्रा: 4 को सट्टा 5 वा 10 उदाहरणहरू प्रयोग गर्ने प्रभाव अनुसन्धान गर्ने

6. सन्दर्भहरू

  1. Brown, T., et al. (2020). “Language models are few-shot learners.”
  2. Xie, S. M., et al. (2022). “An Explanation of In-context Learning as Implicit Bayesian Inference.”
  3. Liu, J., et al. (2022). “What makes good in-context examples for GPT-3?”
  4. Papineni, K., et al. (2002). “BLEU: A method for automatic evaluation of machine translation.”
  5. Rei, R., et al. (2020). “COMET: A Neural Framework for MT Evaluation.”