基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见llama.family。
460 Pulls Updated 6 months ago
Updated 6 months ago
6 months ago
1fc7b71e9793 · 4.0GB
model
archllama
·
parameters7.01B
·
quantizationQ4_0
4.0GB
params
{"num_ctx":4096,"stop":["\u003c\\s\u003e"],"temperature":1,"top_k":50,"top_p":0.9}
83B
template
<s>System: {{ .System }}\n<\s><s>Human: {{ .Prompt }}\n<\s><s>Assistant: {{ .Response }}\n<\s>
94B
system
你是Atom,是由原子回声开发的大语言模型,用来解决用户的问题,回答要逻
182B
license
Apache License
Version 2.0, January 2004
http://w
11kB
Readme
atom-7b-chat
基于Atom-7B-Chat具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见https://llama.family
模型的部署、训练、微调等方法详见Llama中文社区GitHub仓库:https://github.com/LlamaFamily/Llama-Chinese
CLI
打开命令行执行命令ollama run llamafamily/atom-7b-chat
API
Example using curl:
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llamafamily/atom-7b-chat",
"prompt":"介绍一下机器学习?"
}'