450 Downloads Updated 1 year ago
Novedades: - Entrenado para mejorar las respuestas en tareas de generación de categorías, resúmenes, títulos, subtítulos, artículos, descripciones, y categorización.
Resultados: - El modelo base ya funciona bien, pero este fine-tuning mejora notablemente los resultados.
pepita-2-2b-it-v5 es un modelo de lenguaje ajustado a partir del modelo base google/gemma-2-2b-it utilizando cuantización de 4 bits y adaptación LoRA (Low-Rank Adaptation). Este modelo está diseñado para generar artículos detallados en español, optimizado para ejecutarse en hardware con recursos limitados, como GPUs con menor memoria, gracias a las técnicas de compresión y optimización utilizadas.
El modelo ha sido ajustado para seguir instrucciones en formato de conversación, lo que lo hace adecuado para la generación de contenido estructurado en español.
bitsandbytesAutoModelForCausalLMEl modelo fue convertido al formato GGUF desde Nichonauta/pepita-2-2b-it-v5 utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Para utilizar el modelo en formato GGUF, sigue los pasos detallados a continuación.
El modelo también está disponible para su uso en LM Studio y Ollama.
llama.cpp a través de brew (funciona en Mac y Linux): brew install llama.cpp
llama-cli --hf-repo Nichonauta/pepita-2-2b-it-v5-Q4_0-GGUF --hf-file pepita-2-2b-it-v5-q4_0.gguf -p "El significado de la vida y el universo es"
llama-server --hf-repo Nichonauta/pepita-2-2b-it-v5-Q4_0-GGUF --hf-file pepita-2-2b-it-v5-q4_0.gguf -c 2048
El modelo pepita-2-2b-it-v5 está disponible para su uso en LM Studio, una aplicación de escritorio que facilita la ejecución de modelos de lenguaje sin necesidad de configuraciones complejas. Para utilizar el modelo:
El modelo también está disponible en Ollama, una herramienta similar a LM Studio que permite interactuar con modelos de lenguaje de manera local. Sigue los pasos a continuación:
Este modelo está diseñado para generar artículos detallados en español siguiendo una plantilla estructurada. Puedes cargar el modelo directamente desde Hugging Face y comenzar a generar contenido con la siguiente estructura de prompt:
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "pepita-2-2b-it-v5"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
prompt = "Escribe un gran artículo muy detallado en Markdown siguiendo estos pasos: ..."
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0]))
El modelo base se ajusta a la Gemma Terms of Use. Al utilizar, reproducir, modificar o distribuir este modelo, debes cumplir con los siguientes requisitos:
Este modelo fue ajustado por el equipo Nichonauta. Visítanos en: