61.1K 1 year ago

An expansion of Llama 2 that specializes in integrating both general language understanding and domain-specific knowledge, particularly in programming and mathematics.

Models

View all →

33 models

llama-pro:latest

4.7GB · 4K context window · Text · 1 year ago

llama-pro:instruct

latest

4.7GB · 4K context window · Text · 1 year ago

llama-pro:text

4.7GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q2_K

3.5GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q3_K_S

3.6GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q3_K_M

4.1GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q3_K_L

4.5GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q4_0

4.7GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q4_1

5.3GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q4_K_S

4.8GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q4_K_M

5.1GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q5_0

5.8GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q5_1

6.3GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q5_K_S

5.8GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q5_K_M

5.9GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q6_K

6.9GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-q8_0

8.9GB · 4K context window · Text · 1 year ago

llama-pro:8b-instruct-fp16

17GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q2_K

3.5GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q3_K_S

3.6GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q3_K_M

4.1GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q3_K_L

4.5GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q4_0

4.7GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q4_1

5.3GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q4_K_S

4.8GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q4_K_M

5.1GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q5_0

5.8GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q5_1

6.3GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q5_K_S

5.8GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q5_K_M

5.9GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q6_K

6.9GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-q8_0

8.9GB · 4K context window · Text · 1 year ago

llama-pro:8b-text-fp16

17GB · 4K context window · Text · 1 year ago

Readme

LLaMa-Pro is a version of the original LLaMa model enhanced by the addition of transformer blocks by Tencent Applied Research Center (ARC). This model specializes in integrating both general language understanding and domain-specific knowledge, particularly in programming and mathematics.

References

GitHub

Hugging Face