Snowflake Arctic Embed L Amharic

This is a sentence-transformers model finetuned from Snowflake/snowflake-arctic-embed-l-v2.0 on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: Snowflake/snowflake-arctic-embed-l-v2.0
  • Maximum Sequence Length: 8192 tokens
  • Output Dimensionality: 1024 dimensions
  • Similarity Function: Cosine Similarity
  • Training Dataset:
    • json
  • Language: en
  • License: apache-2.0

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("rasyosef/snowflake-arctic-embed-l-v2.0-finetuned-amharic")
# Run inference
sentences = [
    'ሁለት የብአዴን አመራሮች ላይ ያነጣጠረ ጥቃት በደብረ ማርቆስ መፈጸሙ ተሰማ',
    'ሁለት የብሔረ አማራ ዴሞክራሲያዊ ንቅናቄ (ብአዴን) ከፍተኛ አመራሮች ላይ ያነጣጠረ የጥቃት ሙከራ በደብረ ማርቆስ ከተማ መፈጸሙ ተሰማ።የጥቃት ሙከራው የብአዴን መስራችና የቀድሞ የፖሊሲ ጥናትና ምርምር ማዕከል ምክትል ዋና ዳይሬክተርና የመንግሥት ኮሙዩኒኬሽን ጉዳዮች ሚኒስትር የነበሩት አቶ በረከት ስምዖንና ሌላ የብአዴን ማዕከላዊ ኮሚቴ አባል በሆኑት አቶ ምግባሩ ከበደ ላይ መሆኑን ከክልሉ መንግሥት የኮሙዩኒኬሽን ጉዳዮች ቢሮ ኃላፊ አቶ ንጉሡ ጥላሁን ያገኘነው መረጃ ያመለክታል።ሁለቱ የብአዴን አባላት በከተማው ታይተዋል የሚል ወሬ በማኅበራዊ ድረ ገጾች መናፈሱን ተከትሎ፣ ግለሰቦቹ ለሌላ ተልዕኮ እየተንቀሳቀሱ እንደሆኑ የጠረጠሩ የከተማው ነዋሪዎች በደብረ ማርቆስ ሆቴል ላይ ጉዳት ሲያደርሱ ትኩረት ከተደረገባቸው ፖለቲከኞች የአንዱ ነው ተብሎ የተጠረጠረ ተሽከርካሪ በእሳት ማቃጠላቸውንም ለማወቅ ተችሏል።አቶ ንጉሡ ድርጊቱን ያወገዙ ሲሆን፣ በከተማው ታይተዋል ከተባሉ አመራሮች አንዱ አቶ ምግባሩ በባህር ዳር የክልሉ ምክር ቤት ስብሰባ ላይ አብረዋቸው እየተሳተፉ እንደሚገኙ ገልጸዋል።‹‹ማንኛውም አመራርም ሆነ ዜጋ በየትኛውም ቦታ የመንቀሳቀስ መብቱን ሊገድብ የሚችል ነገር ሊኖር አይገባም፤›› ያሉት አቶ ንጉሡ፣ ‹‹ሰሞኑን የአንዳንድ አመራሮች ስም እየተጠቀሰ ሕዝቡን በማደናገርና ብጥብጥ በማንገስ በክልላችን የተገኘውን ሰላም ለመቀልበስ የሐሰት መረጃዎች እየተናፈሱ በመሆኑ ሕዝባችን ታላቅ ጥንቃቄ ማድረግ ይገባዋል፤›› ሲሉ አሳስበዋል።ሁለቱ የብአዴን ፖለቲከኞች ለራሳቸው የፖለቲካ ፍላጎት በደብረ ማርቆስ ከተማ በድብቅ ሕዝብ በማወያየት ላይ እንደሚገኙ የሚገልጽ ሐሰተኛ ወሬ የጥቃቱ ምክንያት እንደሆነ ተገልጿል።',
    'የእንግሊዙ ጠቅላይ ሚኒስትር ቦሪስ ጆንሰን የጣሉትን ጥብቅ የእንቅስቃሴ እና የጉዞ እገዳ በመተላለፍ ወደ ቤተሰባቸው አቅንተዋል የተባሉ አማካሪያቸውን ከኃላፊነት እንዲያነሱ የቀረበላቸውን ጥሪ ውድቅ አድርገዋል፡፡\nየ2016ቱን የእንግሊዝን ከአውሮፓ ህብረት የመነጠል ሂደት (ብሬግዚት) በበላይነት የመሩት ዶሚኒኪ ከሚንግስ 400 ኪሎ ሜትሮችን አቆራርጠው በሰሜናዊ እንግሊዝ ዱርሃም ወደሚገኙ ቤተሰቦቻቸው ያቀኑት ጆንሰን እገዳውን ባስተላለፉበት ባሳለፍነው ወርሃ መጋቢት ነበር፡፡\nበወቅቱ የከሚንግስ ባለቤት የኮሮና ህመም ምልክቶችን ያሳዩ ነበር የተባለ ሲሆን የአንድ ልጃቸውን ሁኔታ ለመመልከት ወደ ቤተሰባቸው ማቅናታቸውም ይነገራል፡፡\nሆኖም የልጃቸውን ሁኔታ ቤተሰባቸው ሊከታተል እንደሚችል የሚናገሩ የተፎካካሪ ፖለቲካ ፓርቲዎች እገዳውን በመተላለፋቸው ከኃላፊነት ሊነሱ ይገባል ሲሉ ድምጻቸውን አሰምተዋል፡፡\nየጠቅላይ ሚኒስትሩ ጽህፈት ቤት ግን ጥያቄውን አልተቀበለም ሮይተርስ እንደዘገበው ከሆነ፡፡\nአማካሪው የጥንቃቄ መርሆዎችን አክብረው የልጃቸውን ሁኔታ ለመመልከት ወደ ቤተሰባቸው ቢያቀኑም በአጎራባች መንደሮች ሆነው ሁኔታዎችን ከመከታተል ውጪ ከቤተሰባቸው እንዳልተቀላቀሉም አስታውቋል፡፡\nከአማካሪያቸው ጉዞ ጥቂት ቀናት በፊት እገዳ ስለመጣላቸው አስታውቀው የነበሩት ጆንሰን ራሳቸው በቫይረሱ ተይዘው እንደነበር የሚታወስ ነው፡፡\n',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric dim_1024 dim_256
cosine_accuracy@1 0.7475 0.7302
cosine_accuracy@3 0.8662 0.8588
cosine_accuracy@5 0.8989 0.8922
cosine_accuracy@10 0.9272 0.9243
cosine_precision@5 0.1798 0.1784
cosine_precision@10 0.0927 0.0924
cosine_precision@50 0.0195 0.0194
cosine_precision@100 0.0098 0.0098
cosine_recall@5 0.8989 0.8922
cosine_recall@10 0.9272 0.9243
cosine_recall@50 0.9731 0.9721
cosine_recall@100 0.983 0.9824
cosine_ndcg@10 0.8406 0.8312
cosine_ndcg@100 0.8525 0.8436
cosine_mrr@10 0.8124 0.8009
cosine_mrr@100 0.8149 0.8034
cosine_map@100 0.8149 0.8034

Training Details

Training Dataset

json

  • Dataset: json
  • Size: 28,046 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 5 tokens
    • mean: 22.77 tokens
    • max: 51 tokens
    • min: 65 tokens
    • mean: 324.14 tokens
    • max: 684 tokens
  • Samples:
    anchor positive
    የዱር እንስሳት ከሰዎች ጋር በሚኖራቸው ቁርኝት ለኮሮናቫይረስ ተጋላጭ እንዳይሆኑ የመከላከል ተግባራትን እያከናወኑ መሆኑን ባለስልጣኑ አስታወቀ፡፡ ባሕርዳር፡ ግንቦት 18/2012 ዓ.ም (አብመድ) የአማራ ክልል የአካባቢ፣ የደንና የዱር እንስሳት ጥበቃና ልማት ባለስልጣን በሚያስተዳድራቸው ብሔራዊ ፓርኮች እና የማኅበረሰብ ጥብቅ ሥፍራዎች ከኮሮናቫይረስ ተጋላጭነት ለመከላከል እየሠራ መሆኑን አስታውቋል፡፡የባለስልጣኑ የኮሙዩኒኬሽን ዳይሬክተር ጋሻው እሸቱ 10 በሚሆኑ ብሔራዊ ፓርኮችና የማኅበረሰብ ጥብቅ ሥፍራዎች የኮሮና ቫይረስን መከላከል በሚቻልባቸው ቅድመ ተግባራት እና ርምጃዎች ላይ መምከራቸውን ተናግረዋል፡፡ የዱር እንስሳት በመንጋ የሚኖሩ፣ እርስ በርሳቸው ተመጋጋቢ፣ ከሰዎች እና ከቤት እንስሳቶች ጋር ሊቀላቀሉ የሚችሉ በመሆናቸው በኮሮናቫይረስ ከተጋለጡ ‘‘የኮሮናቫይረስ ተጋላጭነት በብርቅየ የዱር እንስሳት ብዝኃ ሕይወት ላይ ስጋት መሆን የለበትም’’ ያሉት አቶ ጋሻው በፓርኮቹ ውስጥ ለሚሠሩ የጥበቃ፣ ስካውት እና ለጽሕፈት ቤት ሠራተኞች በዘርፉ ላይ ያተኮረ የኮሮናቫይረስ መከላከያ ትምህርቶችን እና የቁሳቁስ ድጋፎችን ማድረጋቸውን አስታውቀዋል፡፡
    የትግራይ ክልል የአየር መሥመር ለአገልግሎት ክፍት ሆነ፡፡
    የትግራይ ክልል የአየር መሥመር ለአገልግሎት ክፍት ሆነ፡፡
    ባሕር ዳር፡ ታኅሣሥ 05/2013 ዓ.ም (አብመድ) በሰሜን ኢትዮጵያ ትግራይ ክልል የህግ ማስከበር ሂደትን ተከትሎ ተዘግቶ የነበረው የአየር ክልል ከዛሬ ታህሣሥ 5/2013 ዓ.ም ከቀኑ 8 ሰዓት ጀምሮ በሰሜን የኢትዮጵያ የአየር ክልል ውስጥ የሚያቋርጡ የአለም አቀፍ እና የሃገር ውስጥ የበረራ መስመሮች ለአገልግሎት ክፍት ሆነዋል፡፡ አገልግሎት መሥጠት የሚችሉ ኤርፖርቶች በረራ ማስተናገድ የሚችሉ መሆኑንም የኢትዮጵያ ሲቪል አቪዬሽን ባለስልጣን ገልጿል::
    የአውሮፓ ኢንቨስትመንት ባንክ ለመንግሥት 76 ሚሊዮን ዶላር ሊያበድር ነው በዳዊት እንደሻውየአውሮፓ ኢንቨስትመንት ባንክ ጽሕፈት ቤቱን በአዲስ አበባ ከከፈተ ከሁለት ዓመት በኋላ ትልቅ ነው የተባለለትን የ76 ሚሊዮን ዶላር ብድር ስምምነት ለመፈራረም፣ ኃላፊዎቹን ወደ ኢትዮጵያ ይልካል፡፡ከወር በፊት በኢትዮጵያ መንግሥትና በባንኩ መካከል የተደረገው ይኼ የብድር ስምምነት፣ የኢትዮጵያ ልማት ባንክ በሊዝ ፋይናንሲንግ ለአነስተኛና ለመካከለኛ ኢንተርፕራይዞች ለሚያደርገው እገዛ ይውላል፡፡የአውሮፓ ኢንቨስትመንት ባንክ ምክትል ፕሬዚዳንት ፒም ቫን በሌኮም፣ እንዲሁም ሌሎች ኃላፊዎች ይመጣሉ ተብሎ ይጠበቃል፡፡በዚህም መሠረት የባንኩ ኃላፊዎች ከገንዘብና ኢኮኖሚ ትብብር ሚኒስቴር ጋር አድርገውት ከነበረው ስምምነት የሚቀጥልና ተመሳሳይ የሆነ ስምምነት፣ ከኢትዮጵያ ልማት ባንክ ጋር እንደሚያደርጉ ይጠበቃል፡፡እ.ኤ.አ. እስከ 2022 ድረስ የሚቀጥለው አነስተኛና መካከለኛ ኢንተርፕራይዞችን የማገዝ ፕሮጀክት 276 ሚሊዮን ዶላር ወጪ የሚያስወጣ ሲሆን፣ ባለፈው ዓመት የዓለም ባንክ ወደ 200 ሚሊዮን ዶላር ብድር ሰጥቷል፡፡በአውሮፓ ኢንቨስትመንት ባንክ የሚሰጠው ብድር፣ የኢትዮጵያ ልማት ባንክን የሊዝ ፋይናንሲንግ ሥራ እንደሚያግዝ ጉዳዩ የሚመለከታቸው የልማት ባንክ ኃላፊዎች ለሪፖርተር ተናግረዋል፡፡ ‹‹በተጨማሪም የውጭ ምንዛሪ እጥረቱን ለማቃለል ያግዛል፤›› ሲሉ ኃላፊው ገልጸዋል፡፡በልማት ባንክ በኩል የሚደረገው እገዛ በሁለት መስኮቶች የሚወጣ ሲሆን፣ አንደኛው በቀጥታ በባንክ እንደ ሊዝ ፋይናንሲንግ ሲሰጥ ሌላው ደግሞ እንደ መሥሪያ ካፒታል ልማት ባንክ ለመረጣቸው 12 ባንኮችና ዘጠኝ ማይክሮ ፋይናንሶች ይሰጣል፡፡የአውሮፓ ኢንቨስትመንት ባንክ በኢትዮጵያ መንቀሳቀስ ከጀመረ ከ1980ዎቹ ጀምሮ ወደ ግማሽ ቢሊዮን ዶላር የሚጠጋ ለኃይል፣ ለኮሙዩኒኬሽንና ለግሉ ዘርፍ ኢ...
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            1024,
            256
        ],
        "matryoshka_weights": [
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 32
  • gradient_accumulation_steps: 8
  • lr_scheduler_type: cosine
  • warmup_ratio: 0.1
  • fp16: True
  • load_best_model_at_end: True
  • optim: adamw_torch_fused
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 32
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 8
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 3
  • max_steps: -1
  • lr_scheduler_type: cosine
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss dim_1024_cosine_ndcg@100 dim_256_cosine_ndcg@100
0.0456 10 1.4284 - -
0.0913 20 1.0722 - -
0.1369 30 0.4924 - -
0.1825 40 0.6487 - -
0.2282 50 0.631 - -
0.2738 60 0.4888 - -
0.3195 70 0.5223 - -
0.3651 80 0.709 - -
0.4107 90 0.7785 - -
0.4564 100 0.8882 - -
0.5020 110 0.7956 - -
0.5476 120 0.7465 - -
0.5933 130 0.6211 - -
0.6389 140 0.5766 - -
0.6845 150 0.7724 - -
0.7302 160 0.6381 - -
0.7758 170 0.7077 - -
0.8214 180 0.5378 - -
0.8671 190 0.6403 - -
0.9127 200 0.65 - -
0.9584 210 0.6002 - -
1.0 220 0.5317 0.8229 0.8152
1.0456 230 0.3543 - -
1.0913 240 0.3237 - -
1.1369 250 0.2443 - -
1.1825 260 0.1339 - -
1.2282 270 0.2018 - -
1.2738 280 0.1909 - -
1.3195 290 0.2839 - -
1.3651 300 0.3991 - -
1.4107 310 0.3447 - -
1.4564 320 0.2185 - -
1.5020 330 0.1951 - -
1.5476 340 0.2701 - -
1.5933 350 0.2313 - -
1.6389 360 0.2304 - -
1.6845 370 0.2252 - -
1.7302 380 0.2796 - -
1.7758 390 0.1879 - -
1.8214 400 0.1578 - -
1.8671 410 0.2341 - -
1.9127 420 0.272 - -
1.9584 430 0.2888 - -
2.0 440 0.158 0.8483 0.8373
2.0456 450 0.1116 - -
2.0913 460 0.1118 - -
2.1369 470 0.102 - -
2.1825 480 0.0716 - -
2.2282 490 0.1283 - -
2.2738 500 0.1457 - -
2.3195 510 0.0634 - -
2.3651 520 0.1539 - -
2.4107 530 0.1375 - -
2.4564 540 0.0769 - -
2.5020 550 0.0647 - -
2.5476 560 0.0408 - -
2.5933 570 0.0874 - -
2.6389 580 0.153 - -
2.6845 590 0.0987 - -
2.7302 600 0.0881 - -
2.7758 610 0.1004 - -
2.8214 620 0.0535 - -
2.8671 630 0.0603 - -
2.9127 640 0.0779 - -
2.9584 650 0.0542 - -
2.9903 657 - 0.8525 0.8436
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.11.11
  • Sentence Transformers: 3.4.1
  • Transformers: 4.48.3
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.3.0
  • Datasets: 3.3.0
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MatryoshkaLoss

@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
8
Safetensors
Model size
568M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for rasyosef/snowflake-arctic-embed-l-v2.0-finetuned-amharic

Finetuned
(12)
this model

Evaluation results