NewJetsada/ScholarLens

ScholarLens คือ LoRA adapter ที่ fine-tune โมเดล Qwen/Qwen1.5-1.8B-Chat
เพื่อสร้าง structured feedback (JSON format) สำหรับ scholarship essays โดยเฉพาะ
จุดประสงค์คือช่วยให้นักเรียน/นักวิจัยได้รับ feedback เชิงโครงสร้าง (Strengths / Weaknesses / Scores / Summary)
เพื่อปรับปรุงการเขียนเรียงความสมัครทุนการศึกษา


Intended Use & Limitations

  • ใช้สำหรับ ให้ feedback เชิงโครงสร้างใน scholarship essays
  • ไม่เหมาะกับงานด้าน กฎหมาย, การแพทย์, หรือคำแนะนำที่มีผลกระทบสูง
  • ใช้เพื่อ ช่วยพัฒนา/ฝึกฝนการเขียน ไม่ควรถูกมองว่าเป็น feedback ที่สามารถเชื่อได้ 100%

Training Details

  • Base model: Qwen/Qwen1.5-1.8B-Chat
  • Fine-tuning: QLoRA (4-bit quantization)
  • LoRA config:
    • r = 4
    • alpha = 16
    • dropout = 0.05
    • target modules = q_proj, v_proj, k_proj, o_proj
  • Training setup:
    • epochs = 2
    • batch size = 1 (accumulation = 24)
    • max length = 256
    • optimizer = adamw_torch
    • learning rate = 2e-4, cosine schedule, warmup ratio = 0.03
  • Hardware: Google Colab T4 (16GB VRAM)
  • Libraries: transformers, trl==0.23, peft, accelerate, bitsandbytes

Dataset

  • Records: 1000 examples
  • Format: instruction → essay → structured feedback (JSON-like text)
  • Source: synthetic + curated essay samples
  • Cleaning: normalized spacing, JSON validity ensured
  • Split: train-only (1000), eval = held-out manual testing

Evaluation

  • Automatic checks:
    • JSON validity rate: ~100%
    • Length & structure matching
  • Planned human eval:
    • ความถูกต้องของ feedback
    • ประโยชน์ต่อการปรับปรุง essay
    • ความชัดเจนและภาษาที่เหมาะสม

Safety & Bias

  • โมเดลอาจสะท้อน bias จาก dataset ที่สร้างขึ้น (synthetic/curated)
  • Feedback อาจ ให้ความสำคัญกับโครงสร้างมากกว่าเนื้อหาเชิงลึก
  • ผู้ใช้งานควรใช้เป็น แนวทางเสริม ไม่ใช่ตัวตัดสินขั้นสุดท้าย

Example Usage

โหลด Adapter (PEFT)

from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
from peft import PeftModel
import torch

base = "Qwen/Qwen1.5-1.8B-Chat"
adapter = "NewJetsada/ScholarLens"

tok = AutoTokenizer.from_pretrained(base, trust_remote_code=True)

bnb = BitsAndBytesConfig(
    load_in_4bit=True, bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=torch.float16, bnb_4bit_use_double_quant=True
)
model = AutoModelForCausalLM.from_pretrained(
    base, quantization_config=bnb, device_map="auto", trust_remote_code=True
)
model = PeftModel.from_pretrained(model, adapter)
model.eval()
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NewJetsada/ScholarLens

Adapter
(331)
this model