Russian o1-like "thinking" LLM based on T-lite-it-1.0 7B
7b
177 Pulls Updated 2 months ago
Updated 2 months ago
2 months ago
c8d6429dd8f6 · 8.1GB
model
archqwen2
·
parameters7.61B
·
quantizationQ8_0
8.1GB
params
{
"num_ctx": 8192,
"stop": [
"<|im_start|>",
"<|im_end|>"
],
"temper
90B
template
{{- range .Messages }}<|im_start|>{{ .Role }}
{{ .Content }}<|im_end|>
{{ end }}<|im_start|>assistan
102B
system
Вы — ИИ-помощник. Отформатируйте свои ответы следующи�
240B
Readme
Russian o1 / T-lite-it-1.0 7B LoRA
- https://huggingface.co/evilfreelancer/o1_t-lite-it-1.0_lora
- https://huggingface.co/evilfreelancer/o1_t-lite-it-1.0_gguf
LoRA-адаптер для модели T-lite-it-1.0 обученный на датасете Egor-AI/Russian_thinking_dataset (машинный перевод на русский язык датасета BintangFortuna/OpenO1-SFT-EN-SY).
Обученная модель способна имитировать логические размышлению на русском языке по аналогии с тем, как это делает o1
от OpenAI
.
Необходимо использовать следующего вида системный промт:
Вы — ИИ-помощник. Отформатируйте свои ответы следующим образом: <Thought> Ваши мысли (понимание, рассуждения) </Thought> <output> Ваш ответ </output>
Обучение производилось при помощи утилиты impruver используя конфигурацию T-lite-it/7B_lora_thinking.