--- base_model: shibing624/text2vec-base-multilingual datasets: [] language: [] library_name: sentence-transformers pipeline_tag: sentence-similarity tags: - sentence-transformers - sentence-similarity - feature-extraction - generated_from_trainer - dataset_size:64000 - loss:DenoisingAutoEncoderLoss widget: - source_sentence: เคš เคฌเคš ๐‘€ฑเคšเคชเคš๐‘€Ÿ เคชเคš เคชเคš ๐‘€™เคฃเคš๐‘€ช ๐‘€ฑเคš๐‘€ณเคš ๐‘€ เคš๐‘€ข ๐‘€ณ๐‘€ซ๐‘ฆ๐‘€žเคš๐‘€ชเคจ๐‘€ฃเคš เคชเคš ๐‘€ž๐‘€ฑเคšเคฒเคฒ๐‘ฃ เคชเคš๐‘€ช๐‘€ข๐‘€ซ๐‘€ข๐‘€Ÿ เคฒ๐‘ฃ๐‘€žเคšเคค๐‘€ข๐‘€Ÿ ๐‘€ฑเคš๐‘€ณเคš๐‘€Ÿ ๐‘€ณเคš๐‘€ เคจ ๐‘€Ÿเคš๐‘€ณเคš๐‘€ชเคš ๐‘€ฑเคš๐‘€Ÿ๐‘€ฃเคš เคš เคฒ๐‘ฆเค–เคš๐‘€Ÿเคช๐‘ฆ เคฒเคš๐‘€ณ เคงเคฒเคš๐‘€Ÿเคš๐‘€ณ ๐‘€ฃ๐‘€ขเค–๐‘€ข๐‘€ณ๐‘€ข๐‘€จ๐‘€Ÿ sentences: - ' เคš๐‘€Ÿ เคชเคš๐‘€Ÿเคชเคš๐‘€Ÿเคค๐‘ฆ เคชเคš เคš ๐‘€ เคšเคช๐‘€ณเคšเคฃ๐‘€ข๐‘€Ÿ เค—เคฃเคš๐‘€ช เคชเคš๐‘€žเคš๐‘€ชเคš๐‘€ช ๐‘ฆเคš๐‘€ณเคชเคฒ๐‘ฆ๐‘€ขเคฌ๐‘€ซ เคš ๐‘€คเคšเคข๐‘ฆ๐‘€Ÿ ๐‘€ฒ๐‘€ข๐‘€ฃ๐‘€ฃเคš เคฌ๐‘€ฑเคš๐‘€Ÿ๐‘€ข ๐‘€Ÿเคš ๐‘€ณ๐‘€ซ๐‘ฆ๐‘€žเคš๐‘€ชเคš๐‘€ช ๐‘€ญเคฅเคฅเคฐ เคš๐‘€ ๐‘€ เคš เคชเคš ๐‘€ณ๐‘€ซเคš ๐‘€žเคšเคฃ๐‘ฆ เคš ๐‘€คเคšเคข๐‘ฆ๐‘€Ÿ๐‘€ฏ' - ' เคš ๐‘€ชเคš๐‘€Ÿเคš๐‘€ช เค ๐‘€– เคฌเคš ๐‘€ฑเคšเคชเคš๐‘€Ÿ ๐‘€˜เคš๐‘€Ÿเคš๐‘€ข๐‘€ชเคจ เคš ๐‘€ณ๐‘€ซ๐‘ฆ๐‘€žเคš๐‘€ชเคš๐‘€ช เค ๐‘€งเค ๐‘€ฐ เคชเคš ๐‘€žเคš๐‘€ฒเคš เคชเคš๐‘€ช๐‘€ข๐‘€ซ๐‘€ข เคชเคš ๐‘€คเคš๐‘€ เคš ๐‘€ เคšเคชเคš๐‘€ณ๐‘€ซ๐‘€ขเคฃเคš๐‘€ช ๐‘€™เคฃเคš๐‘€ช ๐‘€ฑเคš๐‘€ณเคš ๐‘€ เคš๐‘€ข ๐‘€žเคš๐‘€ชเคš๐‘€Ÿเคค๐‘€ข๐‘€Ÿ ๐‘€ณ๐‘€ซ๐‘ฆ๐‘€žเคš๐‘€ชเคจ๐‘€ฃเคš เคชเคš เคค๐‘€ข ๐‘€ž๐‘€ฑเคšเคฒเคฒ๐‘ฃ เคš เคชเคš๐‘€ช๐‘€ข๐‘€ซ๐‘€ข๐‘€Ÿ เคขเคš๐‘€ชเคคเคš เคฒ๐‘ฃ๐‘€žเคšเคค๐‘€ข๐‘€Ÿ ๐‘€ฃเคš เคชเคš เคค๐‘€ข เคš ๐‘€ฑเคš๐‘€ณเคš๐‘€Ÿ ๐‘€ฃเคš ๐‘€ณเคจ๐‘€žเคš ๐‘€ณเคš๐‘€ เคจ ๐‘€Ÿเคš๐‘€ณเคš๐‘€ชเคš ๐‘€ฑเคš๐‘€Ÿ๐‘€ฃเคš ๐‘€žเคจ๐‘€Ÿเคฌ๐‘€ขเคฃเคš๐‘€ช เคชเคš เคขเคš๐‘€ชเคค๐‘ฆเคฒ๐‘ฃ๐‘€Ÿเคš ๐‘€ฌเคท๐‘€ง เคš ๐‘€žเคš๐‘€Ÿ เคฒ๐‘ฆเค–เคš๐‘€Ÿเคช๐‘ฆ เคฒเคš๐‘€ณ เคงเคฒเคš๐‘€Ÿเคš๐‘€ณ เคš ๐‘€ฑเคš๐‘€ณเคš๐‘€Ÿ เคง๐‘€ช๐‘€ข๐‘€ ๐‘ฆ๐‘€ชเคš ๐‘€ฃ๐‘€ขเค–๐‘€ข๐‘€ณ๐‘€ข๐‘€จ๐‘€Ÿ ๐‘€ฏ' - ' เคš ๐‘€žเคš๐‘€žเคš๐‘€ช ๐‘€ฑเคš๐‘€ณเคš๐‘€Ÿ๐‘€ณเคš ๐‘€Ÿเคš เคข๐‘€ขเคฃเคจ เคš เคค๐‘€ข๐‘€ž๐‘€ข๐‘€Ÿ เค ๐‘€งเค ๐‘€ญ๐‘€ฆ เคฃเคš ๐‘€คเคš๐‘€ เคš ๐‘€ฃเคš๐‘€Ÿ ๐‘€ฑเคš๐‘€ณเคš เคš ๐‘€žเคจเคฒ๐‘ฃเคข ๐‘€ฃ๐‘€ข๐‘€Ÿ ๐‘€žเคจ๐‘€ เคš เคฃเคš เคชเคš๐‘€ข๐‘€ เคš๐‘€žเคš ๐‘€ เคจ๐‘€ณเคจ ๐‘€ณเคจ๐‘€Ÿ เคค๐‘€ข ๐‘ฆเคชเคชเคš๐‘€Ÿ เค ๐‘€งเค ๐‘€ญ๐‘€ฆ ๐‘€žเคจ๐‘€ เคš เคš๐‘€Ÿ ๐‘€Ÿเคš๐‘€ฃเคš ๐‘€ณ๐‘€ซ๐‘€ข เคฌ๐‘€ฑเคš๐‘€Ÿ๐‘€ข๐‘€Ÿ เคฌเคš๐‘€ณเคš๐‘€ช ๐‘€žเคš๐‘€žเคš๐‘€ช ๐‘€ฑเคš๐‘€ณเคš๐‘€ฏ' - source_sentence: ๐‘€ฃเคš ๐‘€Ÿเคš เคช๐‘€ณ๐‘ฆ๐‘€ช๐‘ฆ๐‘€Ÿ เคš sentences: - เคฒ๐‘€ข๐‘€ณ๐‘€ณเคš๐‘€ฒ๐‘€ข๐‘€Ÿ เคฒ๐‘€ข๐‘€ณ๐‘€ณเคš๐‘€ฒ๐‘€ข๐‘€Ÿ ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคšเคฒเคฒเคš๐‘€žเคšเคฌเคšเคขเคšเคžเคšเคฃเคšเคชเคš๐‘€žเคš๐‘€ฃ๐‘€ฃเคจ๐‘€Ÿ ๐‘€ฃเคš เคš๐‘€žเคš เคฃ๐‘€ข ๐‘€Ÿ๐‘€ขเคฃเคฃเคš ๐‘€Ÿเคš ๐‘€ เคจ๐‘€ณเคš๐‘€ ๐‘€ เคš๐‘€Ÿ ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคšเคขเคจ๐‘€žเคšเคค๐‘€ข ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคš๐‘€ž๐‘€ž๐‘ฃ๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ เคš๐‘€ชเคš เคฌ๐‘€ข๐‘€ฃเคš ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคš๐‘€ข เคข๐‘€ขเคฃเคš๐‘€Ÿ ๐‘€ซเคš๐‘€ชเคš๐‘€˜๐‘€ข ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคš๐‘€ž๐‘€ž๐‘ฃ๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ขเคฒ๐‘€ข๐‘€ ๐‘€ข ๐‘€ฆ ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคš๐‘€ž๐‘€ž๐‘ฃ๐‘€ž๐‘€ข๐‘€Ÿ เคช๐‘€ณ๐‘ฃ๐‘€ซ๐‘ฃ๐‘€Ÿ ๐‘€ณ๐‘ฃ๐‘€˜๐‘ฃ๐‘€˜๐‘€ข เคฌ๐‘€ข เคข๐‘€ขเคฒเคฒ ๐‘ฃ๐‘€ฒ ๐‘€ช๐‘€ขเคฌ๐‘€ซเคช๐‘€ณ๐‘€ฆ ๐‘€ฑเคš๐‘€Ÿ๐‘€ฃเคš เคš๐‘€žเคš ๐‘€ฒ๐‘€ข ๐‘€ณเคš๐‘€Ÿ๐‘€ข ๐‘€ฃเคš เคฌ๐‘€ข เคข๐‘€ขเคฒเคฒ ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€™เคฃเคš๐‘€Ÿ เคฒเคจ๐‘€ฑเคš๐‘€ฃ๐‘€ข๐‘€ฆ เคชเคš๐‘€ช๐‘ฃ๐‘€Ÿ เคเคจ๐‘€Ÿเคฌ๐‘€ขเคฃ๐‘ฃเคฃ๐‘€ข๐‘€Ÿ ๐‘€™เคฃเคš๐‘€Ÿ เคฒเคจ๐‘€ฑเคš๐‘€ฃ๐‘€ข ๐‘€Ÿเคš เคš๐‘€ช๐‘ฆ๐‘€ฑเคšเคค๐‘€ข๐‘€Ÿ เคš๐‘€ ๐‘€ข๐‘€ช๐‘€žเคš ๐‘€Ÿ๐‘ฆ ๐‘€ณเคจ๐‘€žเคš เคช๐‘€ณเคš๐‘€ชเคš ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ เคฒเคšเคขเคจ๐‘€ชเคš๐‘€ช๐‘ฆ๐‘€ฆ เคเคจ๐‘€Ÿเคฌ๐‘€ขเคฃเคš๐‘€ช เคฒเคšเคขเคจ๐‘€ชเคš๐‘€ช๐‘ฆ เคชเคš เคš๐‘€ ๐‘€ข๐‘€ช๐‘€žเคš เคชเคš เคขเคจเคฌเคš ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคจ๐‘€ซเคšเคฒเคฒ๐‘€ข ๐‘€ž๐‘ฃ เคš๐‘€˜เคš๐‘€Ÿ๐‘€ฃเคš เค ๐‘€ญ ๐‘€žเคจ๐‘€ฃ๐‘€ข๐‘€ช๐‘€ข๐‘€Ÿ ๐‘€ซเคš๐‘€ž๐‘€ž๐‘€ข ๐‘€Ÿเคš ๐‘€ เคš๐‘€ซเคšเคฒ๐‘€ขเคคเคค๐‘€ข๐‘€ฆ ๐‘€ เคš๐‘€ชเคจเคขเคจเคชเคš๐‘€Ÿ เคขเคš๐‘€Ÿ ๐‘€ฃเคš๐‘€ช๐‘€ขเคฃเคš ๐‘€ฃเคš ๐‘€ เคš๐‘€ณเคจ ๐‘€ฒเคš๐‘€ณเคš๐‘€ซเคš ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคš๐‘€ข เคขเคš ๐‘€ฃเคš เคฌเคจ๐‘€ฃเคจ๐‘€ ๐‘€ เคš๐‘€ฑเคš๐‘€ฆ ๐‘€ฃ๐‘ฃ๐‘€Ÿ ๐‘€ เคš๐‘€ณเคจ เคขเคš ๐‘€ฃเคš เคšเคฌเคš๐‘€˜๐‘€ข ๐‘€žเคจ๐‘€ฃ๐‘€ข๐‘€ช๐‘€ข๐‘€Ÿ ๐‘€ซเคš๐‘€ž๐‘€ž๐‘ฃ๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€˜เคš๐‘€ ๐‘€ข๐‘€™เคš๐‘€Ÿ ๐‘€ฃ๐‘ฃ๐‘€žเคš ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคš๐‘€ณเคจ ๐‘€คเคš๐‘ฅ๐‘ฆ เคชเคš เคคเคšเคฒ๐‘€ข๐‘€ฒ๐‘ฃ๐‘€ช๐‘€Ÿ๐‘€ขเคš๐‘€ฆ ๐‘€ฃเคš๐‘€ข๐‘€ฃเคš๐‘€ขเคชเคš๐‘€ฑเคš ๐‘€ฃเคš ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€คเคš๐‘ฅ๐‘ฆ ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ เคจ๐‘€ณเคจเคฒเคจ๐‘€Ÿเคค๐‘€ข เคชเคš ๐‘€ซเคš๐‘€ž๐‘€ž๐‘ฃ๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ เคšเคชเคš เคš ๐‘€ เคš๐‘€ณเคšเคฒเคฒเคšเคค๐‘€ข๐‘€Ÿ ๐‘€Ÿ๐‘ฆ๐‘€ฑ ๐‘€˜๐‘ฆ๐‘€ช๐‘€ณ๐‘ฆเคฃ ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ เคค๐‘€ข๐‘€Ÿ ๐‘€ซเคš๐‘€Ÿเคค๐‘€ข ๐‘€ฃเคš ๐‘€ชเคš๐‘€ณ๐‘€ซเคš๐‘€ฑเคš ๐‘€žเคจ๐‘€ฃ๐‘€ข๐‘€ช๐‘€ข๐‘€Ÿ ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคš๐‘€ณเคจ ๐‘€žเคšเคช๐‘€ข๐‘€Ÿ ๐‘€ž๐‘€ข๐‘€ช๐‘ฆ๐‘€ฃ๐‘€ขเคช๐‘€ฆ ๐‘€ฑเคš๐‘€Ÿ๐‘€ฃเคš ๐‘€ž๐‘ฆ เคเคจ๐‘€Ÿ๐‘€ณ๐‘€ซ๐‘ฆ เคš เคค๐‘€ข๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช เคคเคš๐‘€ช๐‘€ฃ ๐‘€Ÿเคš ๐‘€ณ๐‘€ซ๐‘ฆ๐‘€žเคš๐‘€ชเคšเคชเคš เค ๐‘€ง๐‘€งเคฅ ๐‘€ฃ๐‘ฃ๐‘€ž๐‘ฃ๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคš๐‘€ณเคจ เคค๐‘€ข เคฌเคšเคขเคš๐‘€Ÿ เคค๐‘€ข๐‘€Ÿ ๐‘€ฃเคจ๐‘€ช๐‘€ข ๐‘€ฃเคš ๐‘€˜๐‘€ข๐‘€ เคš๐‘€™๐‘€ข ๐‘€๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ เคš๐‘€ณเคจ เคค๐‘€ข เคฌเคšเคขเคš ๐‘€ฃเคš ๐‘€˜๐‘€ข๐‘€ เคš๐‘€™๐‘€ข ๐‘€ฎ๐‘€ฃเคจเคขเคš ๐‘€ฑเคš๐‘€ณเคจ เคšเคขเคจเคขเคจ๐‘€ฑเคš๐‘€Ÿ เค๐‘€ข๐‘€ชเคš๐‘€ช ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ เคข๐‘€ข๐‘€ช๐‘€ขเคชเคš๐‘€Ÿ๐‘€ขเคฃเคš ๐‘€ซเคšเคเค๐‘€ข๐‘€Ÿ ๐‘€ฃเคš เคขเคš ๐‘€คเคš เคš ๐‘€ขเคฃเคš เคชเคšเคจเคฃ๐‘ฆ๐‘€ฑเคš เคขเคš ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€žเคš๐‘€ช๐‘ฆ ๐‘€ซเคš๐‘€ž๐‘€ž๐‘ฃ๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ฃเคš๐‘€Ÿ เคš๐‘€ฃเคš๐‘€  เคชเคš ๐‘€ฃเคจ๐‘€Ÿ๐‘€ขเคฃเคš ๐‘€žเคš๐‘€™๐‘€ข๐‘€ฃ๐‘ฃ๐‘€˜๐‘€ข๐‘€Ÿ ๐‘€žเคš๐‘€ช๐‘ฆ ๐‘€ซเคš๐‘€ž๐‘€ž๐‘€ข๐‘€Ÿ เคข๐‘€ขเคฒ๐‘€™เคš๐‘€ฃเคš๐‘€ เคš ๐‘€Ÿเคš ๐‘€ฃเคจ๐‘€Ÿ๐‘€ขเคฃเคš ๐‘€ซเคš๐‘€ž๐‘€ž๐‘ฃ๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ซเคšเคฒ๐‘€ขเคชเคชเคš เคช๐‘€ณเคš๐‘€ช๐‘€ข๐‘€Ÿ ๐‘€ฃ๐‘ฃ๐‘€žเคš ๐‘€ฃ๐‘ฃ๐‘€žเคš๐‘€ช ๐‘€ซเคš๐‘€ž๐‘€ž๐‘€ข ๐‘€Ÿเคš เคข๐‘€ขเคฃเคจ๐‘€ เคš๐‘€Ÿเคš๐‘€คเคš๐‘€ชเคชเคš๐‘€ฏ - ๐‘€ญ๐‘€ฐ๐‘€ฎ๐‘€ฆ ๐‘€ฃเคš เคฒเคš๐‘€ เคขเคš๐‘€ช เคชเคšเคฌเคจเคฒเคฒเคš เคš เคค๐‘€ข๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ชเคจ๐‘€žเคจ๐‘€Ÿ๐‘€ข๐‘€Ÿ เคขเค  ๐‘€Ÿเคš เคช๐‘€ณ๐‘ฆ๐‘€ช๐‘ฆ๐‘€Ÿ เคเคš๐‘€ณเคš เคš ๐‘€ง๐‘€•๐‘€–เคฐ๐‘€ฏ - เคฆ เคฆ เคฆ เคฏ๐‘€žเคจ๐‘€ เคš ๐‘€žเคจ เคขเคšเคจเคชเคš ๐‘€ฑเคš เคšเคฒเคฒเคš๐‘€ซ ๐‘€žเคจ๐‘€ เคš ๐‘€žเคš ๐‘€ฃเคš ๐‘€žเคจ ๐‘€ซเคšเคžเคš๐‘€ฑเคš๐‘€Ÿ๐‘€ข ๐‘€ฃเคš ๐‘€ณ๐‘€ซ๐‘€ขเคฆ ๐‘€žเคจ๐‘€ เคš เคฌเคš ๐‘€ เคš๐‘€ซเคš๐‘€ข๐‘€ฒเคš ๐‘€žเคจ เคฃ๐‘€ข ๐‘€žเคฃเคšเคจเคชเคšเคชเคš๐‘€ฑเคš๐‘€ฆ ๐‘€žเคจ๐‘€ เคš เคฌเคš ๐‘€ เคšเคญ เคšเคข๐‘ฃเคชเคš ๐‘€คเคจ๐‘€ เคจ๐‘€Ÿเคชเคš ๐‘€ฃเคš ๐‘€ เคš๐‘€ชเคšเคฃเคจ ๐‘€ฃเคš ๐‘€ เคšเคชเคšเคฒเคšเคจเคชเคš ๐‘€ฃเคš ๐‘€ เคšเค๐‘€ฑเคšเคขเคค๐‘€ข ๐‘€ เคšเคญเคšเคขเคจเคค๐‘€ข๐‘€Ÿ ๐‘€žเคจ๐‘€ณเคš๐‘€Ÿเคชเคš๐‘€ฆ ๐‘€ฃเคš ๐‘€ เคšเค๐‘€ฑเคšเคขเคค๐‘€ข ๐‘€ เคš๐‘€Ÿ๐‘€ข๐‘€ณเคš๐‘€Ÿเคค๐‘€ข๐‘€ฆ ๐‘€ฃเคš เคšเคข๐‘ฃ๐‘€ž๐‘€ขเคš เคฌ๐‘ฆ๐‘€ฒ๐‘ฆ ๐‘€ฃเคš ๐‘€ฉเคš๐‘€Ÿ ๐‘€ซเคš๐‘€Ÿเคฃเคš ๐‘€ฃเคš เคšเคข๐‘€ข๐‘€Ÿ ๐‘€ฃเคš ๐‘€ซเคš๐‘€Ÿ๐‘€Ÿเคจ๐‘€ฑเคš๐‘€Ÿ๐‘€žเคจ ๐‘€Ÿเคš ๐‘€ฃเคš๐‘€ เคš ๐‘€ณเคจ๐‘€žเคš ๐‘€ เคšเคฒเคฒเคš๐‘€žเคš๐‘€ฏ - source_sentence: เคชเคš๐‘€žเคš ๐‘€ชเคš๐‘€ฑเคš๐‘€ช เคš ๐‘€ณเคš๐‘€ช๐‘€ž๐‘€ข sentences: - ' เคฃเคš เคชเคš๐‘€žเคš ๐‘€ชเคš๐‘€ฑเคš๐‘€ช เคฌเคš๐‘€Ÿ๐‘€ข เคš ๐‘€ เคšเคช๐‘€ณเคšเคฃ๐‘€ข๐‘€Ÿ๐‘€ฆ ๐‘€ณเคš๐‘€ช๐‘€ž๐‘€ข ๐‘€ฃเคš๐‘€ เคขเคš เคš เคค๐‘€ข๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€ณ๐‘€ซ๐‘€ข๐‘€ช๐‘€ข๐‘€Ÿ๐‘€ฏ' - เคฅ๐‘€ฐ๐‘€ญ๐‘€—๐‘€–เค ๐‘€ฐเค ๐‘ขเคฅ๐‘ข๐‘€ญ ๐‘€ฆ ๐‘€ญ๐‘€ง๐‘€ฏ - เคชเคšเคฒเคšเคข๐‘€ข๐‘€˜เคš๐‘€Ÿ ๐‘€ฃเคš ๐‘€ช๐‘ฆ๐‘€ฃ๐‘€ขเคฃ๐‘ฃ เคš๐‘€Ÿ เคฌเคšเคขเคšเคชเคš๐‘€ช ๐‘€ฃเคš เคชเคšเคฒเคšเคข๐‘€ข๐‘€˜๐‘€ข๐‘€Ÿ เคฌเคš เคฌ๐‘€ซเคš๐‘€Ÿเคš เคš ๐‘€ญเคฅ๐‘ข๐‘€– ๐‘€žเคจ๐‘€ เคš เคฃเคš๐‘€Ÿเคš ๐‘€žเคš๐‘€ช๐‘€žเคš๐‘€ณ๐‘€ซ๐‘€ข๐‘€Ÿ ๐‘€ข๐‘€ž๐‘ฃ๐‘€Ÿ ๐‘€˜๐‘€ข๐‘€ซเคš๐‘€ฏ - source_sentence: ๐‘€ฑเคšเคช๐‘€ณเคš ๐‘€ฃเคš ๐‘€Ÿเคš๐‘€ฃเคš ๐‘€ณเคจ๐‘€ฆ ๐‘€ฃ๐‘€ช๐‘€ขเค–๐‘ฆ ๐‘€ž๐‘ฃ๐‘€ฑเคš๐‘€Ÿ๐‘ฆ เคฃเคš ๐‘€ฃเคš เคš เคฒ๐‘ฃ๐‘€žเคšเคค๐‘€ข๐‘€Ÿ ๐‘€ซเคš๐‘€ณเคš๐‘€ณ๐‘€ซ๐‘ฆ๐‘€Ÿ๐‘€ณเคš๐‘€ฏ sentences: - ' เคฃ๐‘€ข๐‘€Ÿ เคš๐‘€ข๐‘€ž๐‘€ข เคชเคš๐‘€ช๐‘ฆ ๐‘€ฃเคš ๐‘€ณเคšเคจ๐‘€ชเคš๐‘€Ÿ ๐‘€žเคจ๐‘€Ÿเคฌ๐‘€ขเคฃ๐‘ฃเคฃ๐‘€ข๐‘€Ÿ เคฃเคš๐‘€ซเคจ๐‘€ฃเคš๐‘€ฑเคš ๐‘€ฃ๐‘ฃ๐‘€Ÿ ๐‘€žเคš๐‘€ชเคš ๐‘€ฑเคšเคฃเคš๐‘€ช ๐‘€ฃเคš ๐‘€žเคš๐‘€Ÿ เคฃเคš๐‘€Ÿ เคš๐‘€ฃเคš๐‘€  ๐‘€ฃเคš ๐‘€žเคš๐‘€ช๐‘€ฒเคš๐‘€ฒเคš ๐‘€ซ๐‘€ข๐‘€ ๐‘€ เคš เคš เคช๐‘€ณเคš๐‘€žเคš๐‘€Ÿ๐‘€ข๐‘€Ÿ เคšเคฒ๐‘€™เคจ๐‘€ ๐‘€ ๐‘ฃ๐‘€ ๐‘€ข๐‘€Ÿ เคฃเคš๐‘€ซเคจ๐‘€ฃเคš๐‘€ฑเคš เคš ๐‘€ เคš๐‘€ฃเคš๐‘€ฃ๐‘€ข๐‘€Ÿ ๐‘€ฑเคš๐‘€ฃเคš๐‘€Ÿ๐‘€ฃเคš เคš๐‘€žเคš ๐‘€ฒเคšเคชเคšเคชเคชเคš๐‘€žเคš ๐‘€ฃเคš ๐‘€ฑเคš๐‘€ฃเคš๐‘€Ÿ๐‘€ฃเคš เคš๐‘€ž๐‘ฆ ๐‘€คเคšเคฒเคจ๐‘€Ÿเคชเคš เคš ๐‘€ฃเคจ๐‘€Ÿ๐‘€ขเคฃเคš๐‘€ฏ' - ' ๐‘€ซ๐‘ฃเคชเคจ๐‘€Ÿเคš๐‘€Ÿ เคš๐‘€Ÿเคš ๐‘€ฑเคšเคช๐‘€ณเคš ๐‘€ณเคจ เคชเคš ๐‘€ซเคš๐‘€Ÿเคฃเคš๐‘€ช ๐‘€Ÿเคš๐‘€™เคจ๐‘€ชเคš๐‘€ช ๐‘€ฃเคšเคจ๐‘€žเคš๐‘€ช ๐‘€ซ๐‘ฃเคช๐‘ฃ ๐‘€ฃเคš๐‘€ข๐‘€ฃเคš๐‘€ข ๐‘€ฃเคš เคฃเคš๐‘€ฃ๐‘€ฃเคš เคš๐‘€žเคš ๐‘€Ÿเคš๐‘€ฃเคš ๐‘€ณเคจ๐‘€ฆ เคชเคš๐‘€ช๐‘ฆ ๐‘€ฃเคš เคฌ๐‘ฆ๐‘€Ÿ๐‘ฆเค–เคš ๐‘€ฃ๐‘€ช๐‘€ขเค–๐‘ฆ ๐‘€ฃเคš ๐‘€ž๐‘ฆ เคชเคšเคขเคขเคšเคชเคš๐‘€ช ๐‘€ฃเคš เคค๐‘ฆ๐‘€ฑเคš ๐‘€ž๐‘ฃ๐‘€ฑเคš๐‘€Ÿ๐‘ฆ ๐‘€ฒ๐‘€ข๐‘€ชเคš๐‘€  เคฃเคš เคค๐‘€ข เคฌเคšเคขเคš ๐‘€ฃเคš ๐‘€žเคš๐‘€ณเคš๐‘€Ÿเคค๐‘ฆ๐‘€ฑเคš เคš เคค๐‘€ข๐‘€ž๐‘€ข๐‘€Ÿ เคฌเคš๐‘€˜๐‘ฆ๐‘€ช๐‘ฆ๐‘€Ÿ เคฒ๐‘ฃ๐‘€žเคšเคค๐‘€ข๐‘€Ÿ ๐‘€ซเคš๐‘€ณเคš๐‘€ณ๐‘€ซ๐‘ฆ๐‘€Ÿ๐‘€ณเคš๐‘€ฏ' - ' ๐‘€ชเคš๐‘€ เคจ๐‘€žเคš เคš เคค๐‘€ข๐‘€ž๐‘€ข๐‘€Ÿ เคเคš๐‘€Ÿเคš๐‘€Ÿเคš๐‘€Ÿ ๐‘€ชเคšเคข๐‘ฃ ๐‘€ฃ๐‘ฃ๐‘€Ÿ ๐‘€žเคš๐‘€ช๐‘ฆ เคช๐‘€ณ๐‘€ข๐‘€ช๐‘ฆเคทเคช๐‘€ณ๐‘€ข๐‘€ช๐‘ฆ ๐‘€ฃเคšเคฌเคš ๐‘€ฒ๐‘ฆ๐‘€ณเคš ๐‘€ เคšเคฌเคš๐‘€Ÿ๐‘€ข๐‘€Ÿ ๐‘€ซ๐‘ฆ๐‘€ชเคข๐‘€ขเคค๐‘€ข๐‘€ฃ๐‘ฆ๐‘€ณ ๐‘€ฃเคš เคฒเคšเคฒเคšเคชเคš ๐‘€ช๐‘ฃ๐‘€ฃ๐‘ฆ๐‘€Ÿเคช๐‘€ฏ' - source_sentence: ๐‘€ เคšเคชเคš๐‘€ž๐‘€ข๐‘€Ÿ เคชเคš๐‘€Ÿเคš เคขเคจเคฌเคš ๐‘€ฑเคš ๐‘€Ÿเคš๐‘€ เคง๐‘ฃเคฒ เคฒเคš๐‘€ฃ๐‘€ข๐‘ฆ๐‘€ณ ๐‘€ฒเคค เคชเคš ๐‘€ฑเคš๐‘€ณเคš๐‘€ฏ sentences: - ' เคš ๐‘€ เคšเคชเคš๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€žเคจเคฒ๐‘ฃเคข เคชเคš๐‘€Ÿเคš เคขเคจเคฌเคš ๐‘€ฑเคš ๐‘€ž๐‘ฃ๐‘€ เคš๐‘€ณ ๐‘€Ÿเคš๐‘€ เคง๐‘ฃเคฒ เคฒเคš๐‘€ฃ๐‘€ข๐‘ฆ๐‘€ณ ๐‘€ฒเคค เคชเคš ๐‘€Ÿเคš๐‘€ ๐‘€ขเคข๐‘€ขเคš ๐‘€ฑเคš๐‘€ณเคš๐‘€ฏ' - ' เคฃเคš๐‘€Ÿ๐‘€žเคจ๐‘€Ÿเคš๐‘€Ÿ เคฌเคจ๐‘€Ÿ๐‘€ฃเคจ๐‘€ เคš๐‘€ช ๐‘€˜๐‘€ฃ๐‘ฆเคฃ๐‘€ฃ๐‘ฆ๐‘€ซ เคฌ๐‘€ข๐‘€ฃเคš ๐‘€Ÿ๐‘ฆ เคฌเคš เคฌ๐‘€ข๐‘€ฃเคš๐‘€˜๐‘ฆ ๐‘€ เคš๐‘€ณเคจ เคฃเคš๐‘€ฑเคš ๐‘€Ÿเคš เคเคš๐‘€ช๐‘€Ÿ๐‘€ข ๐‘€Ÿเคš ๐‘€ญ๐‘ข ๐‘€ฃเคš ๐‘€Ÿเคš ๐‘€ญ๐‘€ฌ ๐‘€Ÿเคš เคšเคฒ๐‘ฆเคงเคง๐‘€ข๐‘€Ÿ เคข๐‘ฃเคจ๐‘€ชเคฌ๐‘ฆ๐‘ฃ๐‘€ข๐‘€ณ๐‘€ข๐‘ฆ๐‘€ฆ ๐‘€ฑเคšเคžเคš๐‘€Ÿ๐‘€ฃเคš ๐‘€ž๐‘ฆ เคžเคšเคจ๐‘€ž๐‘ฆ ๐‘€ฃเคš ๐‘€คเคš๐‘€Ÿ๐‘ฆ๐‘€Ÿ ๐‘€ฃเคจเคช๐‘€ณ๐‘ฆ๐‘€ฏ' - ๐‘€ชเคš๐‘€ช๐‘€ชเคšเคขเคš ๐‘€ณ๐‘€ซ๐‘ฆ๐‘€žเคš๐‘€ชเคจ๐‘€Ÿ เคฃเคš ๐‘€žเคš๐‘€ณเคš๐‘€Ÿเคค๐‘ฆ เค เคฐ๐‘€ฏ --- # SentenceTransformer based on shibing624/text2vec-base-multilingual This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [shibing624/text2vec-base-multilingual](https://huggingface.co/shibing624/text2vec-base-multilingual). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [shibing624/text2vec-base-multilingual](https://huggingface.co/shibing624/text2vec-base-multilingual) - **Maximum Sequence Length:** 512 tokens - **Output Dimensionality:** 384 tokens - **Similarity Function:** Cosine Similarity ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the ๐Ÿค— Hub model = SentenceTransformer("T-Blue/tsdae_pro_text2vec") # Run inference sentences = [ '๐‘€ เคšเคชเคš๐‘€ž๐‘€ข๐‘€Ÿ เคชเคš๐‘€Ÿเคš เคขเคจเคฌเคš ๐‘€ฑเคš ๐‘€Ÿเคš๐‘€ เคง๐‘ฃเคฒ เคฒเคš๐‘€ฃ๐‘€ข๐‘ฆ๐‘€ณ ๐‘€ฒเคค เคชเคš ๐‘€ฑเคš๐‘€ณเคš๐‘€ฏ', ' เคš ๐‘€ เคšเคชเคš๐‘€ž๐‘€ข๐‘€Ÿ ๐‘€žเคจเคฒ๐‘ฃเคข เคชเคš๐‘€Ÿเคš เคขเคจเคฌเคš ๐‘€ฑเคš ๐‘€ž๐‘ฃ๐‘€ เคš๐‘€ณ ๐‘€Ÿเคš๐‘€ เคง๐‘ฃเคฒ เคฒเคš๐‘€ฃ๐‘€ข๐‘ฆ๐‘€ณ ๐‘€ฒเคค เคชเคš ๐‘€Ÿเคš๐‘€ ๐‘€ขเคข๐‘€ขเคš ๐‘€ฑเคš๐‘€ณเคš๐‘€ฏ', ' เคฃเคš๐‘€Ÿ๐‘€žเคจ๐‘€Ÿเคš๐‘€Ÿ เคฌเคจ๐‘€Ÿ๐‘€ฃเคจ๐‘€ เคš๐‘€ช ๐‘€˜๐‘€ฃ๐‘ฆเคฃ๐‘€ฃ๐‘ฆ๐‘€ซ เคฌ๐‘€ข๐‘€ฃเคš ๐‘€Ÿ๐‘ฆ เคฌเคš เคฌ๐‘€ข๐‘€ฃเคš๐‘€˜๐‘ฆ ๐‘€ เคš๐‘€ณเคจ เคฃเคš๐‘€ฑเคš ๐‘€Ÿเคš เคเคš๐‘€ช๐‘€Ÿ๐‘€ข ๐‘€Ÿเคš ๐‘€ญ๐‘ข ๐‘€ฃเคš ๐‘€Ÿเคš ๐‘€ญ๐‘€ฌ ๐‘€Ÿเคš เคšเคฒ๐‘ฆเคงเคง๐‘€ข๐‘€Ÿ เคข๐‘ฃเคจ๐‘€ชเคฌ๐‘ฆ๐‘ฃ๐‘€ข๐‘€ณ๐‘€ข๐‘ฆ๐‘€ฆ ๐‘€ฑเคšเคžเคš๐‘€Ÿ๐‘€ฃเคš ๐‘€ž๐‘ฆ เคžเคšเคจ๐‘€ž๐‘ฆ ๐‘€ฃเคš ๐‘€คเคš๐‘€Ÿ๐‘ฆ๐‘€Ÿ ๐‘€ฃเคจเคช๐‘€ณ๐‘ฆ๐‘€ฏ', ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 384] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] ``` ## Training Details ### Training Dataset #### Unnamed Dataset * Size: 64,000 training samples * Columns: sentence_0 and sentence_1 * Approximate statistics based on the first 1000 samples: | | sentence_0 | sentence_1 | |:--------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------| | type | string | string | | details | | | * Samples: | sentence_0 | sentence_1 | |:-----------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------| | ๐‘€ เคจเคชเคš๐‘€Ÿ๐‘ฆ๐‘€ซเคš๐‘€ข๐‘€ซเคจ๐‘€ฑเคš๐‘€Ÿ ๐‘€ญเคฅเคฅ๐‘€ฌ๐‘€ฏ | ๐‘€ž๐‘€ข๐‘€ฃ๐‘€ข๐‘€ฃ๐‘€ฃ๐‘€ขเคฌเคš๐‘€ช ๐‘€ณเคš๐‘€Ÿเคš๐‘€™เคš๐‘€žเคจเคฒ๐‘ฃเคขเคเคš๐‘€ณเคš๐‘€ณ๐‘€ซ๐‘ฆ๐‘€Ÿ ๐‘€ฃเคจ๐‘€Ÿ๐‘€ขเคฃเคš๐‘€ เคš๐‘€Ÿเคš๐‘€คเคš๐‘€ชเคชเคš ๐‘€ชเคšเคฃเคšเคฃเคฃเคจ๐‘€Ÿ ๐‘€ เคจเคชเคš๐‘€Ÿ๐‘ฆ๐‘€ซเคš๐‘€ข๐‘€ซเคจ๐‘€ฑเคš๐‘€Ÿ ๐‘€ญเคฅเคฅ๐‘€ฌ๐‘€ฏ | | เคš ๐‘€ฑเคš๐‘€˜๐‘ฆ๐‘€Ÿ ๐‘€˜เคš๐‘€ เคญ๐‘€ขเคฃเคฃเคš ๐‘€ เคš๐‘€ข ๐‘€ž๐‘€ข๐‘€ณ๐‘€ซ๐‘€ข๐‘€Ÿ เคชเคš เคฌเคš๐‘€ณ๐‘€ž๐‘€ขเคฃเคš๐‘€ฏ | ๐‘€˜เคš๐‘€ เคญ๐‘€ขเคฃเคฃเคš๐‘€ช เคš เคฒ๐‘ฃ๐‘€žเคšเคค๐‘€ข๐‘€Ÿ ๐‘€ขเคชเคš เคค๐‘ฆ เคชเคš เคข๐‘€ขเคฃเคจ ๐‘€ฃเคš เคชเคš เคฃ๐‘€ข ๐‘€Ÿเคš๐‘€ ๐‘€ข๐‘€˜๐‘€ข๐‘€Ÿ ๐‘€ž๐‘ฃ๐‘€žเคš๐‘€ช๐‘€ข ๐‘€ฑเคš๐‘€˜๐‘ฆ๐‘€Ÿ ๐‘€ณเคš๐‘€ เคš๐‘€ช ๐‘€ฃเคš ๐‘€˜เคš๐‘€ เคญ๐‘€ขเคฃเคฃเคš ๐‘€ เคš๐‘€ข ๐‘€ž๐‘€ข๐‘€ณ๐‘€ซ๐‘€ข๐‘€Ÿ ๐‘€žเคš๐‘€ณเคš เคชเคš เคฌเคš๐‘€ณ๐‘€ž๐‘€ขเคฃเคš๐‘€ฏ | | ๐‘€ฏ | ๐‘€ฏ | * Loss: [DenoisingAutoEncoderLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#denoisingautoencoderloss) ### Training Hyperparameters #### Non-Default Hyperparameters - `per_device_train_batch_size`: 16 - `per_device_eval_batch_size`: 16 - `multi_dataset_batch_sampler`: round_robin #### All Hyperparameters
Click to expand - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: no - `prediction_loss_only`: True - `per_device_train_batch_size`: 16 - `per_device_eval_batch_size`: 16 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `learning_rate`: 5e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1 - `num_train_epochs`: 3 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.0 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: False - `fp16`: False - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: False - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: False - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: False - `hub_always_push`: False - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `dispatch_batches`: None - `split_batches`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `batch_sampler`: batch_sampler - `multi_dataset_batch_sampler`: round_robin
### Training Logs | Epoch | Step | Training Loss | |:-----:|:-----:|:-------------:| | 0.125 | 500 | 4.0592 | | 0.25 | 1000 | 1.6454 | | 0.375 | 1500 | 1.4774 | | 0.5 | 2000 | 1.4131 | | 0.625 | 2500 | 1.3766 | | 0.75 | 3000 | 1.3488 | | 0.875 | 3500 | 1.3252 | | 1.0 | 4000 | 1.3087 | | 1.125 | 4500 | 1.2931 | | 1.25 | 5000 | 1.2772 | | 1.375 | 5500 | 1.2655 | | 1.5 | 6000 | 1.2535 | | 1.625 | 6500 | 1.243 | | 1.75 | 7000 | 1.2305 | | 1.875 | 7500 | 1.223 | | 2.0 | 8000 | 1.216 | | 2.125 | 8500 | 1.2073 | | 2.25 | 9000 | 1.1999 | | 2.375 | 9500 | 1.1935 | | 2.5 | 10000 | 1.1872 | | 2.625 | 10500 | 1.1804 | | 2.75 | 11000 | 1.17 | | 2.875 | 11500 | 1.167 | | 3.0 | 12000 | 1.1623 | ### Framework Versions - Python: 3.10.12 - Sentence Transformers: 3.0.1 - Transformers: 4.42.4 - PyTorch: 2.3.1+cu121 - Accelerate: 0.33.0 - Datasets: 2.18.0 - Tokenizers: 0.19.1 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` #### DenoisingAutoEncoderLoss ```bibtex @inproceedings{wang-2021-TSDAE, title = "TSDAE: Using Transformer-based Sequential Denoising Auto-Encoderfor Unsupervised Sentence Embedding Learning", author = "Wang, Kexin and Reimers, Nils and Gurevych, Iryna", booktitle = "Findings of the Association for Computational Linguistics: EMNLP 2021", month = nov, year = "2021", address = "Punta Cana, Dominican Republic", publisher = "Association for Computational Linguistics", pages = "671--688", url = "https://arxiv.org/abs/2104.06979", } ```