234 Downloads Updated 1 year ago
Novedades: - Entrenado con un dataset más pequeño pero de mejor calidad. - Pequeños ajustes en el prompt base. - Variación de prompts en cada ejemplo.
Resultados: - Mejora la tasa de artículos de calidad de un 60% a un 99%.
pepita-2-2b-it-v3 es un modelo de lenguaje ajustado a partir del modelo base google/gemma-2-2b-it utilizando cuantización de 4 bits y adaptación LoRA (Low-Rank Adaptation). Este modelo está diseñado para generar artículos detallados en español, optimizado para ejecutarse en hardware con recursos limitados, como GPUs con menor memoria, gracias a las técnicas de compresión y optimización utilizadas.
El modelo ha sido ajustado para seguir instrucciones en formato de conversación, lo que lo hace adecuado para la generación de contenido estructurado en español.
(Nuevo) El modelo fue entrenado para seguir este prompt base al generar contenido:
Escribe un gran artículo muy extenso y detallado en Markdown con un tamaño de al menos mil palabras de longitud siguiendo estos pasos:
1. Escribe un título principal (#) que tenga entre 50 y 60 caracteres.
2. Escribe el subtítulo "Introducción" (##):
- Redacta un párrafo que introduzca el tema.
- Redacta un párrafo que introduzca el artículo.
3. Continúa con muchos subtítulos (##):
- Escribe varios párrafos largos y detallados.
- De ser necesario añade sub-subtítulos (###):
- Escribe varios párrafos largos y detallados.
4. Escribe el subtítulo "Conclusión" (##):
- Redacta varios párrafos.
Asegúrate de redactar en español utilizando explicaciones muy extensas y detalladas, manteniendo siempre un tono amigable. Resalta las palabras clave usando **negritas**. Es obligatorio que bajo cada subtítulo escribas al menos tres párrafos antes de pasar a un nuevo subtítulo.
Comienza inmediatamente con el título principal (#).
bitsandbytesr=64), lora_alpha=32 y lora_dropout=0.05AutoModelForCausalLMEl modelo fue convertido al formato GGUF desde Nichonauta/pepita-2-2b-it-v3 utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Para utilizar el modelo en formato GGUF, sigue los pasos detallados a continuación.
El modelo también está disponible para su uso en LM Studio y Ollama.
llama.cpp a través de brew (funciona en Mac y Linux): brew install llama.cpp
llama-cli --hf-repo Nichonauta/pepita-2-2b-it-v3-Q4_0-GGUF --hf-file pepita-2-2b-it-v3-q4_0.gguf -p "El significado de la vida y el universo es"
llama-server --hf-repo Nichonauta/pepita-2-2b-it-v3-Q4_0-GGUF --hf-file pepita-2-2b-it-v3-q4_0.gguf -c 2048
El modelo pepita-2-2b-it-v3 está disponible para su uso en LM Studio, una aplicación de escritorio que facilita la ejecución de modelos de lenguaje sin necesidad de configuraciones complejas. Para utilizar el modelo:
El modelo también está disponible en Ollama, una herramienta similar a LM Studio que permite interactuar con modelos de lenguaje de manera local. Sigue los pasos a continuación:
Este modelo está diseñado para generar artículos detallados en español siguiendo una plantilla estructurada. Puedes cargar el modelo directamente desde Hugging Face y comenzar a generar contenido con la siguiente estructura de prompt:
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "pepita-2-2b-it-v3"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
prompt = "Escribe un gran artículo muy detallado en Markdown siguiendo estos pasos: ..."
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0]))
El modelo base se ajusta a la Gemma Terms of Use. Al utilizar, reproducir, modificar o distribuir este modelo, debes cumplir con los siguientes requisitos:
Este modelo fue ajustado por el equipo Nichonauta. Visítanos en: