The 7B model released by Mistral AI, updated to version 0.2.
726.2K Pulls Updated 6 weeks ago
instruct
4.1GB
text
4.1GB
v0.1
4.1GB
v0.2
4.1GB
7b-instruct
4.1GB
7b-text
4.1GB
7b-instruct-q4_0
4.1GB
7b-instruct-q4_1
4.6GB
7b-instruct-q5_0
5.0GB
7b-instruct-q5_1
5.4GB
7b-instruct-q8_0
7.7GB
7b-instruct-q2_K
3.1GB
7b-instruct-q3_K_S
3.2GB
7b-instruct-q3_K_M
3.5GB
7b-instruct-q3_K_L
3.8GB
7b-instruct-q4_K_S
4.1GB
7b-instruct-q4_K_M
4.4GB
7b-instruct-q5_K_S
5.0GB
7b-instruct-q5_K_M
5.1GB
7b-instruct-q6_K
5.9GB
7b-instruct-fp16
14GB
7b-text-q4_0
4.1GB
7b-text-q4_1
4.6GB
7b-text-q5_0
5.0GB
7b-text-q5_1
5.4GB
7b-text-q8_0
7.7GB
7b-text-q2_K
3.1GB
7b-text-q3_K_S
3.2GB
7b-text-q3_K_M
3.5GB
7b-text-q3_K_L
3.8GB
7b-text-q4_K_S
4.1GB
7b-text-q4_K_M
4.4GB
7b-text-q5_K_S
5.0GB
7b-text-q5_K_M
5.1GB
7b-text-q6_K
5.9GB
7b-text-fp16
14GB
7b-instruct-v0.2-q4_0
4.1GB
7b-instruct-v0.2-q4_1
4.6GB
7b-instruct-v0.2-q5_0
5.0GB
7b-instruct-v0.2-q5_1
5.4GB
7b-instruct-v0.2-q8_0
7.7GB
7b-instruct-v0.2-q2_K
3.1GB
7b-instruct-v0.2-q3_K_S
3.2GB
7b-instruct-v0.2-q3_K_M
3.5GB
7b-instruct-v0.2-q3_K_L
3.8GB
7b-instruct-v0.2-q4_K_S
4.1GB
7b-instruct-v0.2-q4_K_M
4.4GB
7b-instruct-v0.2-q5_K_S
5.0GB
7b-instruct-v0.2-q5_K_M
5.1GB
7b-instruct-v0.2-q6_K
5.9GB
7b-instruct-v0.2-fp16
14GB
7b-text-v0.2-q4_0
4.1GB
7b-text-v0.2-q4_1
4.6GB
7b-text-v0.2-q5_0
5.0GB
7b-text-v0.2-q5_1
5.4GB
7b-text-v0.2-q8_0
7.7GB
7b-text-v0.2-q2_K
2.7GB
7b-text-v0.2-q3_K_S
3.2GB
7b-text-v0.2-q3_K_M
3.5GB
7b-text-v0.2-q3_K_L
3.8GB
7b-text-v0.2-q4_K_S
4.1GB
7b-text-v0.2-q4_K_M
4.4GB
7b-text-v0.2-q5_K_S
5.0GB
7b-text-v0.2-q5_K_M
5.1GB
7b-text-v0.2-q6_K
5.9GB
7b-text-v0.2-fp16
14GB
ed11eda7790d · 30B
{
"stop": [
"[INST]",
"[/INST]"
]
}