FlagAlpha/Llama3-Chinese-8B-Instruct
Text Generation
•
Updated
•
4.55k
•
70
None defined yet.
Github:Llama-Chinese
在线体验链接:llama.family
欢迎来到Llama中文社区!
我们是一个专注于Llama模型在中文方面的优化和上层建设的高级技术社区。
基于大规模中文数据,从预训练开始对Llama模型进行中文能力的持续迭代升级。
我们热忱欢迎对大模型LLM充满热情的开发者和研究者加入我们的行列。
自从Meta公司发布第一代LLaMA模型以来,羊驼模型家族繁荣发展。
近期Meta发布了Llama2版本,开源可商用,在模型和效果上有了重大更新。
Llama2总共公布了7B、13B和70B三种参数大小的模型。
相比于LLaMA,Llama2的训练数据达到了2万亿token,上下文长度也由之前的2048升级到4096,可以理解和生成更长的文本。
Llama2 Chat模型基于100万人类标记数据微调得到,在英文对话上达到了接近ChatGPT的效果。
基于Llama3-8B的中文微调模型
为了区别于原始的Llama2模型,未来,Llama中文社区发布的中文Llama2模型将以“Atom”(原子)命名。
原子生万物,我们希望原子大模型未来可以成为构建AI世界的基础单位。
目前,社区提供完全开源可商用基于的Atom-7B模型,并将持续更新。