Model Card for qwen3-14b-instruct-gsm8k-tr
This model is a fine-tuned version of unsloth/Qwen3-14B-unsloth-bnb-4bit. It has been trained using TRL.
Infernce Code
import torch
from unsloth import FastLanguageModel
from transformers import TextStreamer
def run_inference():
# Model from finetune_tr_gsm8k_qwen14B.py
model_id = "uisikdag/qwen3-14b-instruct-gsm8k-tr"
print(f"Loading model from Hub: {model_id}")
# Load model and tokenizer from Hub
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = model_id,
max_seq_length = 2048,
load_in_4bit = True,
)
FastLanguageModel.for_inference(model) # Enable native 2x faster inference
# 10 Turkish Math Questions (GSM8K style)
questions = [
"Bir manavda 56 elma vardı. Manav elmaların yarısını sattıktan sonra 12 tanesini daha sattı. Geriye kaç elma kaldı?",
"Ali'nin 5 kitabı var. Ayşe'nin kitap sayısı Ali'ninkinin 3 katından 2 eksik. Ayşe'nin kaç kitabı var?",
"Bir sınıfta 15 kız ve 10 erkek öğrenci var. Sınıftaki toplam öğrenci sayısının 2/5'i gözlüklü. Kaç öğrenci gözlüklü?",
"Bir çiftlikte tavuklar ve inekler var. Toplam baş sayısı 20, toplam ayak sayısı 56 ise kaç inek vardır?",
"3 kalem ve 2 silgi 50 TL. Bir kalem 10 TL ise bir silgi kaç TL'dir?",
"Bir araç saatte 60 km hızla 3 saat gitti. Sonra hızını 80 km'ye çıkarıp 2 saat daha gitti. Toplam kaç km yol aldı?",
"Ahmet bilyelerinin %20'sini Mehmet'e verince elinde 40 bilye kalıyor. Başlangıçta kaç bilyesi vardı?",
"Bir kutuda 5 kırmızı, 4 mavi ve 3 yeşil top var. Rastgele çekilen bir topun kırmızı olma olasılığı nedir?",
"Bir dikdörtgenin kısa kenarı 5 cm, uzun kenarı 12 cm'dir. Bu dikdörtgenin çevresi kaç cm'dir?",
"Babam 45 yaşında. Ben babamın yaşının 1/3'ü kadarım. 5 yıl sonra yaşlarımızın toplamı kaç olur?"
]
print(f"Generating responses for {len(questions)} questions...\n")
for i, question in enumerate(questions, 1):
print(f"--- Question {i} ---")
print(f"User: {question}")
messages = [
{"role" : "user", "content" : question}
]
text = tokenizer.apply_chat_template(
messages,
tokenize = False,
add_generation_prompt = True,
)
_ = model.generate(
**tokenizer(text, return_tensors = "pt").to("cuda"),
max_new_tokens = 512,
temperature = 0.7, top_p = 0.8, top_k = 20,
streamer = TextStreamer(tokenizer, skip_prompt = True),
)
print("\n" + "="*50 + "\n")
if __name__ == "__main__":
run_inference()
Training procedure
This model was trained with SFT.
Framework versions
- TRL: 0.24.0
- Transformers: 4.57.1
- Pytorch: 2.9.1
- Datasets: 4.3.0
- Tokenizers: 0.22.1
Citations
Cite TRL as:
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support
Model tree for uisikdag/qwen3-14b-instruct-gsm8k-tr
Base model
Qwen/Qwen3-14B-Base
Finetuned
Qwen/Qwen3-14B
Quantized
unsloth/Qwen3-14B-unsloth-bnb-4bit