Orbita-v0.1
This model is a Turkish Large Language Model with multiple abilites across different dimensions on the Turkish Language covering a variety of Tasks like Coding, Math, etc... This model is an extended version of a Qwen-based Large Language Model (LLM) for Turkish. It was trained on a cleaned Turkish dataset carefully annotated to carry out turkish instructions in an accurate and organized manner. This model was fully finetuned extensively on 8x H100 GPU's for 2 days using a carefully annotated Turkish dataset.
Model Details
- Base Model: Qwen 14B based LLM
- Training Dataset: Annotated Turkish Dataset
- Training Method: Full Finetuning
Usage Examples
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto
model = AutoModelForCausalLM.from_pretrained(
"Orbina/Orbita-v0.1",
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Orbina/Orbita-v0.1")
prompt = "Python'da ekrana 'Merhaba Dรผnya' nasฤฑl yazฤฑlฤฑr?"
messages = [
{"role": "system", "content": "Sen, Orbina AI tarafฤฑndan รผretilen ve verilen talimatlarฤฑ takip ederek en iyi cevabฤฑ รผretmeye รงalฤฑลan yardฤฑmcฤฑ bir yapay zekasฤฑn."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
model_inputs.input_ids,
temperature=0.3,
top_k=50,
top_p=0.9,
max_new_tokens=512,
repetition_penalty=1,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
Example Generations
Prompt:
Tรผrkiye'deki finansal kurumlar, yapay zeka ile birlikte gelen veri gรผvenliฤi risklerini nasฤฑl yรถnetiyor, 3 รถrnek verir misin?
Cevap:
Tรผrkiye'deki finansal kurumlar, yapay zeka (AI) teknolojilerinin getirdiฤi veri gรผvenliฤi riskleri รงeลitli yรถntemlerle ele almakta ve bu riskleri azaltmaya รงalฤฑลmaktadฤฑr. ฤฐลte รผรง รถrnek:
1. **Veri ลifreleme:** Finansal kuruluลlar, mรผลteri bilgileri gibi hassas verileri ลifrelemeyi kullanarak veri ihlallerine karลฤฑ koruma saฤlar. AES (Advanced Encryption Standard), RSA (Rivest-Shamir-Adleman) veya ECC (Elliptik Eฤri Kriptografisi) gibi gรผรงlรผ ลifreleme algoritmalarฤฑ, verilerin okunmasฤฑnฤฑ engelleyebilir.
2. **Anomali Tespit Sistemleri:** Yapay zeka destekli anomali tespit sistemleri, beklenmedik davranฤฑลlarฤฑ algฤฑlayabilir ve gรผvenlik ekiplerini uyarฤฑr. Bu sistemler, makine รถฤrenimi modelleri sayesinde zaman iรงinde daha etkili hale gelebilir ve dolandฤฑrฤฑcฤฑlฤฑk faaliyetlerini รถnlemede รถnemli rol oynar.
3. **Sรผrekli ฤฐzleme ve Gรผvenlik Politikasฤฑ Uygulama:** Tรผrkiye'deki finansal kurumlar, sรผrekli izleme ve gรผvenlik politikalarฤฑnฤฑ uygularak veri gรผvenliฤini sรผrdรผrรผr. Bu sรผreรงlerde dรผzenli gรผvenlik denetimleri yapฤฑlฤฑr ve tรผm personelin gรผvenlik konusunda eฤitildiฤi gรถz รถnรผnde bulundurulur. Ayrฤฑca, mรผลterilere de gรผvenlik protokollerini anlatan eฤitimler sunulur.
Bu รถrnekler, Tรผrkiye'deki finansal kurumlarฤฑn yapay zeka ile ilgili veri gรผvenliฤi risklerini yรถnetmek iรงin kullandฤฑklarฤฑ bazฤฑ stratejileri gรถstermektedir. Ancak herhangi bir gรผvenlik sistemi mรผkemmel deฤildir ve bu nedenle kurumlar da sรผrekli olarak gรผvenlik durumlarฤฑnฤฑ deฤerlendirip iyileลtirmeler yapmaktadฤฑrlar.
Prompt:
Python'da ekrana "Merhaba Dรผnya" nasฤฑl yazฤฑlฤฑr?
Cevap:
Python'da ekrana "Merhaba Dรผnya" yazmak iรงin `print` fonksiyonunu kullanabilirsiniz. ฤฐลte basit bir รถrnek:
``python
print("Merhaba Dรผnya")
``
Bu kodu รงalฤฑลtฤฑrdฤฑฤฤฑnฤฑzda, konsol ekranฤฑnda "Merhaba Dรผnya" metnini gรถreceksiniz. `print` fonksiyonu, verilen argรผmanฤฑ (bu durumda "Merhaba Dรผnya") alฤฑr ve onu รงฤฑktฤฑ olarak verir.
Open LLM Turkish Leaderboard Evaluation Results
Metric | Value |
---|---|
Avg. | 49.47 |
AI2 Reasoning Challenge_tr | 41.97 |
HellaSwag_tr | 48.00 |
MMLU_tr | 49.51 |
TruthfulQA_tr | 50.78 |
Winogrande _tr | 56.16 |
GSM8k_tr | 50.41 |
- Downloads last month
- 2,652
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for Orbina/Orbita-v0.1
Spaces using Orbina/Orbita-v0.1 2
Evaluation results
- accuracy on AI2 Reasoning Challenge TRtest set self-reported41.970
- accuracy on HellaSwag TRvalidation set self-reported48.000
- accuracy on MMLU TRtest set self-reported49.510
- accuracy on TruthfulQA TRvalidation set self-reported50.780
- accuracy on Winogrande TRvalidation set self-reported56.160
- accuracy on GSM8k TRtest set self-reported50.410