基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见llama.family。

463 6 months ago

4fc1ad87add3 · 83B
{
"num_ctx": 4096,
"stop": [
"<\\s>"
],
"temperature": 1,
"top_k": 50,
"top_p": 0.9
}