基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见llama.family。

460 6 months ago

Readme

atom-7b-chat

基于Atom-7B-Chat具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见https://llama.family

模型的部署、训练、微调等方法详见Llama中文社区GitHub仓库:https://github.com/LlamaFamily/Llama-Chinese

CLI

打开命令行执行命令ollama run llamafamily/atom-7b-chat

API

Example using curl:

curl -X POST http://localhost:11434/api/generate -d '{
  "model": "llamafamily/atom-7b-chat",
  "prompt":"介绍一下机器学习?"
 }'