Updated 8 weeks ago
8 weeks ago
fa379c76bb99 · 16GB
model
archqwen2
·
parameters14.8B
·
quantizationQ8_0
16GB
Readme
Tifa-Deepsex-14b-CoT-Crazy-Q8
本模型基于Deepseek-R1-14B进行深度优化,借助Tifa_220B生成的数据集通过三重训练策略显著增强角色扮演、小说文本生成与思维链(CoT)能力。特别适合需要长程上下文关联的创作场景。
仅转存模型,暂无修改
大量使用RL策略,主要采用671B满血R1蒸馏的数据,输出发散性高,继承R1优点,也继承了R1的危害性。文学性能佳。
增量训练0.4T小说内容
40K由TifaMax生成的SFT数据,60K由DeepseekR1生成的SFT数据,2K高质量人工数据
30K由TifaMax生成的DPO强化学习数据,用于防止重复,增强上下文关联,提升政治安全性
10K由TifaMax生成PPO数据,10K由DeepseekR1生成PPO数据