基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见llama.family。

537 7 months ago

8d87ebf100b7 · 94B
<s>System: {{ .System }}\n<\s><s>Human: {{ .Prompt }}\n<\s><s>Assistant: {{ .Response }}\n<\s>