基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见llama.family。

7B

382 Pulls Updated 4 months ago

4fc1ad87add3 · 83B
{ "num_ctx": 4096, "stop": [ "<\\s>" ], "temperature": 1, "top_k": 50, "top_p": 0.9 }