Edit model card

Orbita LLM

Orbita-v0.1

This model is a Turkish Large Language Model with multiple abilites across different dimensions on the Turkish Language covering a variety of Tasks like Coding, Math, etc... This model is an extended version of a Qwen-based Large Language Model (LLM) for Turkish. It was trained on a cleaned Turkish dataset carefully annotated to carry out turkish instructions in an accurate and organized manner. This model was fully finetuned extensively on 8x H100 GPU's for 2 days using a carefully annotated Turkish dataset.

Model Details

  • Base Model: Qwen 14B based LLM
  • Training Dataset: Annotated Turkish Dataset
  • Training Method: Full Finetuning

Usage Examples


from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto

model = AutoModelForCausalLM.from_pretrained(
    "Orbina/Orbita-v0.1",
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Orbina/Orbita-v0.1")

prompt = "Python'da ekrana 'Merhaba Dรผnya' nasฤฑl yazฤฑlฤฑr?"
messages = [
    {"role": "system", "content": "Sen, Orbina AI tarafฤฑndan รผretilen ve verilen talimatlarฤฑ takip ederek en iyi cevabฤฑ รผretmeye รงalฤฑลŸan yardฤฑmcฤฑ bir yapay zekasฤฑn."},
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)

generated_ids = model.generate(
    model_inputs.input_ids,
    temperature=0.3,
    top_k=50,
    top_p=0.9,
    max_new_tokens=512,
    repetition_penalty=1,
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

Example Generations

Prompt:
Tรผrkiye'deki finansal kurumlar, yapay zeka ile birlikte gelen veri gรผvenliฤŸi risklerini nasฤฑl yรถnetiyor, 3 รถrnek verir misin?

Cevap:
Tรผrkiye'deki finansal kurumlar, yapay zeka (AI) teknolojilerinin getirdiฤŸi veri gรผvenliฤŸi riskleri รงeลŸitli yรถntemlerle ele almakta ve bu riskleri azaltmaya รงalฤฑลŸmaktadฤฑr. ฤฐลŸte รผรง รถrnek:

1. **Veri ลžifreleme:** Finansal kuruluลŸlar, mรผลŸteri bilgileri gibi hassas verileri ลŸifrelemeyi kullanarak veri ihlallerine karลŸฤฑ koruma saฤŸlar. AES (Advanced Encryption Standard), RSA (Rivest-Shamir-Adleman) veya ECC (Elliptik EฤŸri Kriptografisi) gibi gรผรงlรผ ลŸifreleme algoritmalarฤฑ, verilerin okunmasฤฑnฤฑ engelleyebilir.
2. **Anomali Tespit Sistemleri:** Yapay zeka destekli anomali tespit sistemleri, beklenmedik davranฤฑลŸlarฤฑ algฤฑlayabilir ve gรผvenlik ekiplerini uyarฤฑr. Bu sistemler, makine รถฤŸrenimi modelleri sayesinde zaman iรงinde daha etkili hale gelebilir ve dolandฤฑrฤฑcฤฑlฤฑk faaliyetlerini รถnlemede รถnemli rol oynar.
3. **Sรผrekli ฤฐzleme ve Gรผvenlik Politikasฤฑ Uygulama:** Tรผrkiye'deki finansal kurumlar, sรผrekli izleme ve gรผvenlik politikalarฤฑnฤฑ uygularak veri gรผvenliฤŸini sรผrdรผrรผr. Bu sรผreรงlerde dรผzenli gรผvenlik denetimleri yapฤฑlฤฑr ve tรผm personelin gรผvenlik konusunda eฤŸitildiฤŸi gรถz รถnรผnde bulundurulur. Ayrฤฑca, mรผลŸterilere de gรผvenlik protokollerini anlatan eฤŸitimler sunulur.

Bu รถrnekler, Tรผrkiye'deki finansal kurumlarฤฑn yapay zeka ile ilgili veri gรผvenliฤŸi risklerini yรถnetmek iรงin kullandฤฑklarฤฑ bazฤฑ stratejileri gรถstermektedir. Ancak herhangi bir gรผvenlik sistemi mรผkemmel deฤŸildir ve bu nedenle kurumlar da sรผrekli olarak gรผvenlik durumlarฤฑnฤฑ deฤŸerlendirip iyileลŸtirmeler yapmaktadฤฑrlar.
Prompt:
Python'da ekrana "Merhaba Dรผnya" nasฤฑl yazฤฑlฤฑr?

Cevap:
Python'da ekrana "Merhaba Dรผnya" yazmak iรงin `print` fonksiyonunu kullanabilirsiniz. ฤฐลŸte basit bir รถrnek:

``python
print("Merhaba Dรผnya")
``

Bu kodu รงalฤฑลŸtฤฑrdฤฑฤŸฤฑnฤฑzda, konsol ekranฤฑnda "Merhaba Dรผnya" metnini gรถreceksiniz. `print` fonksiyonu, verilen argรผmanฤฑ (bu durumda "Merhaba Dรผnya") alฤฑr ve onu รงฤฑktฤฑ olarak verir.

Open LLM Turkish Leaderboard Evaluation Results

Metric Value
Avg. 49.47
AI2 Reasoning Challenge_tr 41.97
HellaSwag_tr 48.00
MMLU_tr 49.51
TruthfulQA_tr 50.78
Winogrande _tr 56.16
GSM8k_tr 50.41
Downloads last month
2,652
Safetensors
Model size
14.2B params
Tensor type
F32
ยท
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Orbina/Orbita-v0.1

Quantizations
1 model

Spaces using Orbina/Orbita-v0.1 2

Evaluation results