---
base_model: shibing624/text2vec-base-multilingual
datasets: []
language: []
library_name: sentence-transformers
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:64000
- loss:DenoisingAutoEncoderLoss
widget:
- source_sentence: เค เคฌเค ๐ฑเคเคชเค๐ เคชเค เคชเค ๐เคฃเค๐ช ๐ฑเค๐ณเค ๐ เค๐ข ๐ณ๐ซ๐ฆ๐เค๐ชเคจ๐ฃเค เคชเค ๐๐ฑเคเคฒเคฒ๐ฃ เคชเค๐ช๐ข๐ซ๐ข๐ เคฒ๐ฃ๐เคเคค๐ข๐
๐ฑเค๐ณเค๐ ๐ณเค๐ เคจ ๐เค๐ณเค๐ชเค ๐ฑเค๐๐ฃเค เค เคฒ๐ฆเคเค๐เคช๐ฆ เคฒเค๐ณ เคงเคฒเค๐เค๐ณ ๐ฃ๐ขเค๐ข๐ณ๐ข๐จ๐
sentences:
- ' เค๐ เคชเค๐เคชเค๐เคค๐ฆ เคชเค เค ๐ เคเคช๐ณเคเคฃ๐ข๐ เคเคฃเค๐ช เคชเค๐เค๐ชเค๐ช ๐ฆเค๐ณเคชเคฒ๐ฆ๐ขเคฌ๐ซ เค ๐คเคเคข๐ฆ๐ ๐ฒ๐ข๐ฃ๐ฃเค เคฌ๐ฑเค๐๐ข ๐เค ๐ณ๐ซ๐ฆ๐เค๐ชเค๐ช
๐ญเคฅเคฅเคฐ เค๐ ๐ เค เคชเค ๐ณ๐ซเค ๐เคเคฃ๐ฆ เค ๐คเคเคข๐ฆ๐๐ฏ'
- ' เค ๐ชเค๐เค๐ช เค ๐ เคฌเค ๐ฑเคเคชเค๐ ๐เค๐เค๐ข๐ชเคจ เค ๐ณ๐ซ๐ฆ๐เค๐ชเค๐ช เค ๐งเค ๐ฐ เคชเค ๐เค๐ฒเค เคชเค๐ช๐ข๐ซ๐ข เคชเค ๐คเค๐ เค ๐ เคเคชเค๐ณ๐ซ๐ขเคฃเค๐ช
๐เคฃเค๐ช ๐ฑเค๐ณเค ๐ เค๐ข ๐เค๐ชเค๐เคค๐ข๐ ๐ณ๐ซ๐ฆ๐เค๐ชเคจ๐ฃเค เคชเค เคค๐ข ๐๐ฑเคเคฒเคฒ๐ฃ เค เคชเค๐ช๐ข๐ซ๐ข๐ เคขเค๐ชเคคเค เคฒ๐ฃ๐เคเคค๐ข๐ ๐ฃเค เคชเค เคค๐ข
เค ๐ฑเค๐ณเค๐ ๐ฃเค ๐ณเคจ๐เค ๐ณเค๐ เคจ ๐เค๐ณเค๐ชเค ๐ฑเค๐๐ฃเค ๐เคจ๐เคฌ๐ขเคฃเค๐ช เคชเค เคขเค๐ชเคค๐ฆเคฒ๐ฃ๐เค ๐ฌเคท๐ง เค ๐เค๐ เคฒ๐ฆเคเค๐เคช๐ฆ เคฒเค๐ณ
เคงเคฒเค๐เค๐ณ เค ๐ฑเค๐ณเค๐ เคง๐ช๐ข๐ ๐ฆ๐ชเค ๐ฃ๐ขเค๐ข๐ณ๐ข๐จ๐ ๐ฏ'
- ' เค ๐เค๐เค๐ช ๐ฑเค๐ณเค๐๐ณเค ๐เค เคข๐ขเคฃเคจ เค เคค๐ข๐๐ข๐ เค ๐งเค ๐ญ๐ฆ เคฃเค ๐คเค๐ เค ๐ฃเค๐ ๐ฑเค๐ณเค เค ๐เคจเคฒ๐ฃเคข ๐ฃ๐ข๐ ๐เคจ๐ เค เคฃเค
เคชเค๐ข๐ เค๐เค ๐ เคจ๐ณเคจ ๐ณเคจ๐ เคค๐ข ๐ฆเคชเคชเค๐ เค ๐งเค ๐ญ๐ฆ ๐เคจ๐ เค เค๐ ๐เค๐ฃเค ๐ณ๐ซ๐ข เคฌ๐ฑเค๐๐ข๐ เคฌเค๐ณเค๐ช ๐เค๐เค๐ช ๐ฑเค๐ณเค๐ฏ'
- source_sentence: ๐ฃเค ๐เค เคช๐ณ๐ฆ๐ช๐ฆ๐ เค
sentences:
- เคฒ๐ข๐ณ๐ณเค๐ฒ๐ข๐ เคฒ๐ข๐ณ๐ณเค๐ฒ๐ข๐ ๐ซเคเคเค๐ข๐ ๐ซเคเคเค๐ข๐ ๐ เคเคฒเคฒเค๐เคเคฌเคเคขเคเคเคเคฃเคเคชเค๐เค๐ฃ๐ฃเคจ๐ ๐ฃเค เค๐เค เคฃ๐ข ๐๐ขเคฃเคฃเค ๐เค ๐ เคจ๐ณเค๐ ๐ เค๐ ๐ฃ๐ฃ๐เค๐ช
๐ซเคเคเค๐ข๐ ๐ เคเคขเคจ๐เคเคค๐ข ๐ฃ๐ฃ๐เค๐ช ๐ซเค๐๐๐ฃ๐๐ข๐ ๐ เค๐ชเค เคฌ๐ข๐ฃเค ๐ฃ๐ฃ๐เค๐ช ๐ซเคเคเค๐ข๐ ๐ เค๐ข เคข๐ขเคฃเค๐ ๐ซเค๐ชเค๐๐ข ๐ฃ๐ฃ๐เค๐ช ๐ซเค๐๐๐ฃ๐๐ข๐
๐ขเคฒ๐ข๐ ๐ข ๐ฆ ๐ฃ๐ฃ๐เค๐ช ๐ซเค๐๐๐ฃ๐๐ข๐ เคช๐ณ๐ฃ๐ซ๐ฃ๐ ๐ณ๐ฃ๐๐ฃ๐๐ข เคฌ๐ข เคข๐ขเคฒเคฒ ๐ฃ๐ฒ ๐ช๐ขเคฌ๐ซเคช๐ณ๐ฆ ๐ฑเค๐๐ฃเค เค๐เค ๐ฒ๐ข ๐ณเค๐๐ข ๐ฃเค เคฌ๐ข
เคข๐ขเคฒเคฒ ๐ฃ๐ฃ๐เค๐ช ๐เคฃเค๐ เคฒเคจ๐ฑเค๐ฃ๐ข๐ฆ เคชเค๐ช๐ฃ๐ เคเคจ๐เคฌ๐ขเคฃ๐ฃเคฃ๐ข๐ ๐เคฃเค๐ เคฒเคจ๐ฑเค๐ฃ๐ข ๐เค เค๐ช๐ฆ๐ฑเคเคค๐ข๐ เค๐ ๐ข๐ช๐เค ๐๐ฆ ๐ณเคจ๐เค
เคช๐ณเค๐ชเค ๐ฃ๐ฃ๐เค๐ช ๐ซเคเคเค๐ข๐ เคฒเคเคขเคจ๐ชเค๐ช๐ฆ๐ฆ เคเคจ๐เคฌ๐ขเคฃเค๐ช เคฒเคเคขเคจ๐ชเค๐ช๐ฆ เคชเค เค๐ ๐ข๐ช๐เค เคชเค เคขเคจเคฌเค ๐ฃ๐ฃ๐เค๐ช ๐ซเคเคเค๐ข๐
๐ เคจ๐ซเคเคฒเคฒ๐ข ๐๐ฃ เค๐เค๐๐ฃเค เค ๐ญ ๐เคจ๐ฃ๐ข๐ช๐ข๐ ๐ซเค๐๐๐ข ๐เค ๐ เค๐ซเคเคฒ๐ขเคคเคค๐ข๐ฆ ๐ เค๐ชเคจเคขเคจเคชเค๐ เคขเค๐ ๐ฃเค๐ช๐ขเคฃเค ๐ฃเค ๐ เค๐ณเคจ
๐ฒเค๐ณเค๐ซเค ๐ฃ๐ฃ๐เค๐ช ๐ซเคเคเค๐ข๐ ๐ เค๐ข เคขเค ๐ฃเค เคฌเคจ๐ฃเคจ๐ ๐ เค๐ฑเค๐ฆ ๐ฃ๐ฃ๐ ๐ เค๐ณเคจ เคขเค ๐ฃเค เคเคฌเค๐๐ข ๐เคจ๐ฃ๐ข๐ช๐ข๐ ๐ซเค๐๐๐ฃ๐๐ข๐
๐เค๐ ๐ข๐เค๐ ๐ฃ๐ฃ๐เค ๐ฃ๐ฃ๐เค๐ช ๐ซเคเคเค๐ข๐ ๐ เค๐ณเคจ ๐คเค๐ฅ๐ฆ เคชเค เคคเคเคฒ๐ข๐ฒ๐ฃ๐ช๐๐ขเค๐ฆ ๐ฃเค๐ข๐ฃเค๐ขเคชเค๐ฑเค ๐ฃเค ๐ฃ๐ฃ๐เค๐ช ๐ซเคเคเค๐ข๐
๐คเค๐ฅ๐ฆ ๐ฃ๐ฃ๐เค๐ช ๐ เคจ๐ณเคจเคฒเคจ๐เคค๐ข เคชเค ๐ซเค๐๐๐ฃ๐๐ข๐ ๐ เคเคชเค เค ๐ เค๐ณเคเคฒเคฒเคเคค๐ข๐ ๐๐ฆ๐ฑ ๐๐ฆ๐ช๐ณ๐ฆเคฃ ๐ฃ๐ฃ๐เค๐ช ๐ซเคเคเค๐ข๐ ๐ซเคเคเค๐ข๐
เคค๐ข๐ ๐ซเค๐เคค๐ข ๐ฃเค ๐ชเค๐ณ๐ซเค๐ฑเค ๐เคจ๐ฃ๐ข๐ช๐ข๐ ๐ซเคเคเค๐ข๐ ๐ เค๐ณเคจ ๐เคเคช๐ข๐ ๐๐ข๐ช๐ฆ๐ฃ๐ขเคช๐ฆ ๐ฑเค๐๐ฃเค ๐๐ฆ เคเคจ๐๐ณ๐ซ๐ฆ เค เคค๐ข๐๐ข๐
๐ฃ๐ฃ๐เค๐ช เคคเค๐ช๐ฃ ๐เค ๐ณ๐ซ๐ฆ๐เค๐ชเคเคชเค เค ๐ง๐งเคฅ ๐ฃ๐ฃ๐๐ฃ๐๐ข๐ ๐ซเคเคเค๐ข๐ ๐ เค๐ณเคจ เคค๐ข เคฌเคเคขเค๐ เคค๐ข๐ ๐ฃเคจ๐ช๐ข ๐ฃเค ๐๐ข๐ เค๐๐ข ๐๐ฃ๐ฃ๐เค๐ช
๐ซเคเคเค๐ข๐ ๐ เค๐ณเคจ เคค๐ข เคฌเคเคขเค ๐ฃเค ๐๐ข๐ เค๐๐ข ๐ฎ๐ฃเคจเคขเค ๐ฑเค๐ณเคจ เคเคขเคจเคขเคจ๐ฑเค๐ เค๐ข๐ชเค๐ช ๐ซเคเคเค๐ข๐ เคข๐ข๐ช๐ขเคชเค๐๐ขเคฃเค ๐ซเคเคเค๐ข๐
๐ฃเค เคขเค ๐คเค เค ๐ขเคฃเค เคชเคเคจเคฃ๐ฆ๐ฑเค เคขเค ๐ฃ๐ฃ๐เค๐ช ๐เค๐ช๐ฆ ๐ซเค๐๐๐ฃ๐๐ข๐ ๐ฃเค๐ เค๐ฃเค๐ เคชเค ๐ฃเคจ๐๐ขเคฃเค ๐เค๐๐ข๐ฃ๐ฃ๐๐ข๐ ๐เค๐ช๐ฆ
๐ซเค๐๐๐ข๐ เคข๐ขเคฒ๐เค๐ฃเค๐ เค ๐เค ๐ฃเคจ๐๐ขเคฃเค ๐ซเค๐๐๐ฃ๐๐ข๐ ๐ซเคเคฒ๐ขเคชเคชเค เคช๐ณเค๐ช๐ข๐ ๐ฃ๐ฃ๐เค ๐ฃ๐ฃ๐เค๐ช ๐ซเค๐๐๐ข ๐เค เคข๐ขเคฃเคจ๐ เค๐เค๐คเค๐ชเคชเค๐ฏ
- ๐ญ๐ฐ๐ฎ๐ฆ ๐ฃเค เคฒเค๐ เคขเค๐ช เคชเคเคฌเคจเคฒเคฒเค เค เคค๐ข๐๐ข๐ ๐ชเคจ๐เคจ๐๐ข๐ เคขเค ๐เค เคช๐ณ๐ฆ๐ช๐ฆ๐ เคเค๐ณเค เค ๐ง๐๐เคฐ๐ฏ
- เคฆ เคฆ เคฆ เคฏ๐เคจ๐ เค ๐เคจ เคขเคเคจเคชเค ๐ฑเค เคเคฒเคฒเค๐ซ ๐เคจ๐ เค ๐เค ๐ฃเค ๐เคจ ๐ซเคเคเค๐ฑเค๐๐ข ๐ฃเค ๐ณ๐ซ๐ขเคฆ ๐เคจ๐ เค เคฌเค ๐ เค๐ซเค๐ข๐ฒเค ๐เคจ
เคฃ๐ข ๐เคฃเคเคจเคชเคเคชเค๐ฑเค๐ฆ ๐เคจ๐ เค เคฌเค ๐ เคเคญ เคเคข๐ฃเคชเค ๐คเคจ๐ เคจ๐เคชเค ๐ฃเค ๐ เค๐ชเคเคฃเคจ ๐ฃเค ๐ เคเคชเคเคฒเคเคจเคชเค ๐ฃเค ๐ เคเค๐ฑเคเคขเคค๐ข ๐ เคเคญเคเคขเคจเคค๐ข๐
๐เคจ๐ณเค๐เคชเค๐ฆ ๐ฃเค ๐ เคเค๐ฑเคเคขเคค๐ข ๐ เค๐๐ข๐ณเค๐เคค๐ข๐ฆ ๐ฃเค เคเคข๐ฃ๐๐ขเค เคฌ๐ฆ๐ฒ๐ฆ ๐ฃเค ๐ฉเค๐ ๐ซเค๐เคฃเค ๐ฃเค เคเคข๐ข๐ ๐ฃเค ๐ซเค๐๐เคจ๐ฑเค๐๐เคจ
๐เค ๐ฃเค๐ เค ๐ณเคจ๐เค ๐ เคเคฒเคฒเค๐เค๐ฏ
- source_sentence: เคชเค๐เค ๐ชเค๐ฑเค๐ช เค ๐ณเค๐ช๐๐ข
sentences:
- ' เคฃเค เคชเค๐เค ๐ชเค๐ฑเค๐ช เคฌเค๐๐ข เค ๐ เคเคช๐ณเคเคฃ๐ข๐๐ฆ ๐ณเค๐ช๐๐ข ๐ฃเค๐ เคขเค เค เคค๐ข๐๐ข๐ ๐ณ๐ซ๐ข๐ช๐ข๐๐ฏ'
- เคฅ๐ฐ๐ญ๐๐เค ๐ฐเค ๐ขเคฅ๐ข๐ญ ๐ฆ ๐ญ๐ง๐ฏ
- เคชเคเคฒเคเคข๐ข๐เค๐ ๐ฃเค ๐ช๐ฆ๐ฃ๐ขเคฃ๐ฃ เค๐ เคฌเคเคขเคเคชเค๐ช ๐ฃเค เคชเคเคฒเคเคข๐ข๐๐ข๐ เคฌเค เคฌ๐ซเค๐เค เค ๐ญเคฅ๐ข๐ ๐เคจ๐ เค เคฃเค๐เค ๐เค๐ช๐เค๐ณ๐ซ๐ข๐
๐ข๐๐ฃ๐ ๐๐ข๐ซเค๐ฏ
- source_sentence: ๐ฑเคเคช๐ณเค ๐ฃเค ๐เค๐ฃเค ๐ณเคจ๐ฆ ๐ฃ๐ช๐ขเค๐ฆ ๐๐ฃ๐ฑเค๐๐ฆ เคฃเค ๐ฃเค เค เคฒ๐ฃ๐เคเคค๐ข๐ ๐ซเค๐ณเค๐ณ๐ซ๐ฆ๐๐ณเค๐ฏ
sentences:
- ' เคฃ๐ข๐ เค๐ข๐๐ข เคชเค๐ช๐ฆ ๐ฃเค ๐ณเคเคจ๐ชเค๐ ๐เคจ๐เคฌ๐ขเคฃ๐ฃเคฃ๐ข๐ เคฃเค๐ซเคจ๐ฃเค๐ฑเค ๐ฃ๐ฃ๐ ๐เค๐ชเค ๐ฑเคเคฃเค๐ช ๐ฃเค ๐เค๐ เคฃเค๐ เค๐ฃเค๐ ๐ฃเค
๐เค๐ช๐ฒเค๐ฒเค ๐ซ๐ข๐ ๐ เค เค เคช๐ณเค๐เค๐๐ข๐ เคเคฒ๐เคจ๐ ๐ ๐ฃ๐ ๐ข๐ เคฃเค๐ซเคจ๐ฃเค๐ฑเค เค ๐ เค๐ฃเค๐ฃ๐ข๐ ๐ฑเค๐ฃเค๐๐ฃเค เค๐เค ๐ฒเคเคชเคเคชเคชเค๐เค ๐ฃเค
๐ฑเค๐ฃเค๐๐ฃเค เค๐๐ฆ ๐คเคเคฒเคจ๐เคชเค เค ๐ฃเคจ๐๐ขเคฃเค๐ฏ'
- ' ๐ซ๐ฃเคชเคจ๐เค๐ เค๐เค ๐ฑเคเคช๐ณเค ๐ณเคจ เคชเค ๐ซเค๐เคฃเค๐ช ๐เค๐เคจ๐ชเค๐ช ๐ฃเคเคจ๐เค๐ช ๐ซ๐ฃเคช๐ฃ ๐ฃเค๐ข๐ฃเค๐ข ๐ฃเค เคฃเค๐ฃ๐ฃเค เค๐เค ๐เค๐ฃเค
๐ณเคจ๐ฆ เคชเค๐ช๐ฆ ๐ฃเค เคฌ๐ฆ๐๐ฆเคเค ๐ฃ๐ช๐ขเค๐ฆ ๐ฃเค ๐๐ฆ เคชเคเคขเคขเคเคชเค๐ช ๐ฃเค เคค๐ฆ๐ฑเค ๐๐ฃ๐ฑเค๐๐ฆ ๐ฒ๐ข๐ชเค๐ เคฃเค เคค๐ข เคฌเคเคขเค ๐ฃเค ๐เค๐ณเค๐เคค๐ฆ๐ฑเค
เค เคค๐ข๐๐ข๐ เคฌเค๐๐ฆ๐ช๐ฆ๐ เคฒ๐ฃ๐เคเคค๐ข๐ ๐ซเค๐ณเค๐ณ๐ซ๐ฆ๐๐ณเค๐ฏ'
- ' ๐ชเค๐ เคจ๐เค เค เคค๐ข๐๐ข๐ เคเค๐เค๐เค๐ ๐ชเคเคข๐ฃ ๐ฃ๐ฃ๐ ๐เค๐ช๐ฆ เคช๐ณ๐ข๐ช๐ฆเคทเคช๐ณ๐ข๐ช๐ฆ ๐ฃเคเคฌเค ๐ฒ๐ฆ๐ณเค ๐ เคเคฌเค๐๐ข๐ ๐ซ๐ฆ๐ชเคข๐ขเคค๐ข๐ฃ๐ฆ๐ณ
๐ฃเค เคฒเคเคฒเคเคชเค ๐ช๐ฃ๐ฃ๐ฆ๐เคช๐ฏ'
- source_sentence: ๐ เคเคชเค๐๐ข๐ เคชเค๐เค เคขเคจเคฌเค ๐ฑเค ๐เค๐ เคง๐ฃเคฒ เคฒเค๐ฃ๐ข๐ฆ๐ณ ๐ฒเคค เคชเค ๐ฑเค๐ณเค๐ฏ
sentences:
- ' เค ๐ เคเคชเค๐๐ข๐ ๐เคจเคฒ๐ฃเคข เคชเค๐เค เคขเคจเคฌเค ๐ฑเค ๐๐ฃ๐ เค๐ณ ๐เค๐ เคง๐ฃเคฒ เคฒเค๐ฃ๐ข๐ฆ๐ณ ๐ฒเคค เคชเค ๐เค๐ ๐ขเคข๐ขเค ๐ฑเค๐ณเค๐ฏ'
- ' เคฃเค๐๐เคจ๐เค๐ เคฌเคจ๐๐ฃเคจ๐ เค๐ช ๐๐ฃ๐ฆเคฃ๐ฃ๐ฆ๐ซ เคฌ๐ข๐ฃเค ๐๐ฆ เคฌเค เคฌ๐ข๐ฃเค๐๐ฆ ๐ เค๐ณเคจ เคฃเค๐ฑเค ๐เค เคเค๐ช๐๐ข ๐เค ๐ญ๐ข ๐ฃเค ๐เค ๐ญ๐ฌ
๐เค เคเคฒ๐ฆเคงเคง๐ข๐ เคข๐ฃเคจ๐ชเคฌ๐ฆ๐ฃ๐ข๐ณ๐ข๐ฆ๐ฆ ๐ฑเคเคเค๐๐ฃเค ๐๐ฆ เคเคเคจ๐๐ฆ ๐ฃเค ๐คเค๐๐ฆ๐ ๐ฃเคจเคช๐ณ๐ฆ๐ฏ'
- ๐ชเค๐ช๐ชเคเคขเค ๐ณ๐ซ๐ฆ๐เค๐ชเคจ๐ เคฃเค ๐เค๐ณเค๐เคค๐ฆ เค เคฐ๐ฏ
---
# SentenceTransformer based on shibing624/text2vec-base-multilingual
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [shibing624/text2vec-base-multilingual](https://huggingface.co/shibing624/text2vec-base-multilingual). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [shibing624/text2vec-base-multilingual](https://huggingface.co/shibing624/text2vec-base-multilingual)
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 tokens
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the ๐ค Hub
model = SentenceTransformer("T-Blue/tsdae_pro_text2vec")
# Run inference
sentences = [
'๐ เคเคชเค๐๐ข๐ เคชเค๐เค เคขเคจเคฌเค ๐ฑเค ๐เค๐ เคง๐ฃเคฒ เคฒเค๐ฃ๐ข๐ฆ๐ณ ๐ฒเคค เคชเค ๐ฑเค๐ณเค๐ฏ',
' เค ๐ เคเคชเค๐๐ข๐ ๐เคจเคฒ๐ฃเคข เคชเค๐เค เคขเคจเคฌเค ๐ฑเค ๐๐ฃ๐ เค๐ณ ๐เค๐ เคง๐ฃเคฒ เคฒเค๐ฃ๐ข๐ฆ๐ณ ๐ฒเคค เคชเค ๐เค๐ ๐ขเคข๐ขเค ๐ฑเค๐ณเค๐ฏ',
' เคฃเค๐๐เคจ๐เค๐ เคฌเคจ๐๐ฃเคจ๐ เค๐ช ๐๐ฃ๐ฆเคฃ๐ฃ๐ฆ๐ซ เคฌ๐ข๐ฃเค ๐๐ฆ เคฌเค เคฌ๐ข๐ฃเค๐๐ฆ ๐ เค๐ณเคจ เคฃเค๐ฑเค ๐เค เคเค๐ช๐๐ข ๐เค ๐ญ๐ข ๐ฃเค ๐เค ๐ญ๐ฌ ๐เค เคเคฒ๐ฆเคงเคง๐ข๐ เคข๐ฃเคจ๐ชเคฌ๐ฆ๐ฃ๐ข๐ณ๐ข๐ฆ๐ฆ ๐ฑเคเคเค๐๐ฃเค ๐๐ฆ เคเคเคจ๐๐ฆ ๐ฃเค ๐คเค๐๐ฆ๐ ๐ฃเคจเคช๐ณ๐ฆ๐ฏ',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 64,000 training samples
* Columns: sentence_0
and sentence_1
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 |
|:--------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
| type | string | string |
| details |
๐ เคจเคชเค๐๐ฆ๐ซเค๐ข๐ซเคจ๐ฑเค๐ ๐ญเคฅเคฅ๐ฌ๐ฏ
| ๐๐ข๐ฃ๐ข๐ฃ๐ฃ๐ขเคฌเค๐ช ๐ณเค๐เค๐เค๐เคจเคฒ๐ฃเคขเคเค๐ณเค๐ณ๐ซ๐ฆ๐ ๐ฃเคจ๐๐ขเคฃเค๐ เค๐เค๐คเค๐ชเคชเค ๐ชเคเคฃเคเคฃเคฃเคจ๐ ๐ เคจเคชเค๐๐ฆ๐ซเค๐ข๐ซเคจ๐ฑเค๐ ๐ญเคฅเคฅ๐ฌ๐ฏ
|
| เค ๐ฑเค๐๐ฆ๐ ๐เค๐ เคญ๐ขเคฃเคฃเค ๐ เค๐ข ๐๐ข๐ณ๐ซ๐ข๐ เคชเค เคฌเค๐ณ๐๐ขเคฃเค๐ฏ
| ๐เค๐ เคญ๐ขเคฃเคฃเค๐ช เค เคฒ๐ฃ๐เคเคค๐ข๐ ๐ขเคชเค เคค๐ฆ เคชเค เคข๐ขเคฃเคจ ๐ฃเค เคชเค เคฃ๐ข ๐เค๐ ๐ข๐๐ข๐ ๐๐ฃ๐เค๐ช๐ข ๐ฑเค๐๐ฆ๐ ๐ณเค๐ เค๐ช ๐ฃเค ๐เค๐ เคญ๐ขเคฃเคฃเค ๐ เค๐ข ๐๐ข๐ณ๐ซ๐ข๐ ๐เค๐ณเค เคชเค เคฌเค๐ณ๐๐ขเคฃเค๐ฏ
|
| ๐ฏ
| ๐ฏ
|
* Loss: [DenoisingAutoEncoderLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#denoisingautoencoderloss)
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters