374 11 months ago

本模型是以林彥廷 TaiwanChat 資料集微調 Google 的 Gemma2:2b - it,使該模型具備較多的繁體中文語彙來進行對話。

2b

11 months ago

1a838dd6e80f · 1.6GB ·

gemma2
·
2.61B
·
Q4_0
{ "stop": [ "<start_of_turn>", "<end_of_turn>" ] }
{{- $system := "" }} {{- range .Messages }} {{- if eq .Role "system" }} {{- if not $system }}{{ $sys

Readme

本模型是以林彥廷 TaiwanChat 資料集微調 Google 的 Gemma2:2b - it,使該模型具備較多的繁體中文語彙來進行對話。