基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见llama.family。
537 Pulls Updated 7 months ago
1 Tag
1fc7b71e9793 • 4.0GB •
7 months ago