163 10 hours ago

🌐 Sovereign Qwen3.5 text, code, JP. Vision support at https://huggingface.co/FieldMouse-AI ・ 🇯🇵 Qwen3.5 テキスト・コード・日本語対応。画像認識は https://huggingface.co/FieldMouse-AI で利用可能です。

0.8b 2b 4b 9b 27b
ollama run FieldMouse-AI/qwen3.5:0.8b

Models

View all →

Readme

Qwen 3.5 Sovereign Series: 75-Model Foundry Manifest

Qwen 3.5 Sovereignシリーズ: 75モデル・ファウンドリ・マニフェスト

[!IMPORTANT] TEXT-ONLY OPTIMIZATION / テキスト専用最適化

This Ollama release is a high-density text-only build. Vision support is excluded to prioritize logical throughput and weight efficiency in the fieldmouse-ai namespace.

👁️ FOR VISION SUPPORT (Multimodal): Please visit our HuggingFace Forge to download the full GGUF weights and accompanying .mmproj files.

🌐 Official Website: FieldMouse-AI.com

The Sovereign Series is a precision-engineered distribution of Qwen 3.5, meticulously forged to provide architectural consistency and high-fidelity logic across the entire computational spectrum.

Sovereign(主権者)シリーズは、Qwen 3.5を精密に再構築したディストリビューションです。計算資源の全スペクトルにおいて、アーキテクチャの一貫性と高精度な論理を提供するために丹念に鍛造されました。

💻 “High-Fidelity AI for Every Machine” — 誰もがAIを所有できる世界へ

  • The Hardware (ハードウェア):
    私たちの手元にある 「古い鉄(Iron)」を再定義します。2011年製のMac Mini (6+ t/s) または Ryzen 7 (22+ t/s) から最新のDual RTX 3060 (160+ t/s) まで、あらゆる環境で最高のパフォーマンスを引き出します。
    Optimized for the ‘Iron’ we already own. Reclaiming legacy hardware.

  • The Tech (テクノロジー):
    すべてのモデルは I-Matrix によって精緻にキャリブレーション(校正)されています。これは単なる「軽量化」ではなく、推論の密度(Reasoning Density)を維持するためのプロセスです。
    These aren’t just ‘small’ models; they are ‘dense’ models.

  • The Philosophy (フィロソフィー):
    FieldMouse-AIの使命は、高度なバイリンガル推論(日・英)と、低リソース環境へのアクセシビリティの架け橋となることです。
    Bridging the gap between high-level bilingual reasoning and low-resource accessibility.

⚗️ The Foundry Methodology / 鍛造のメソッド

Stability was achieved through a rigorous, three-stage optimization process: 厳格な3段階の最適化プロセスにより、圧倒的な安定性を実現しました:

  1. Custom Imatrix Calibration: Importance matrices were generated using targeted datasets to preserve the “logical spine” of the model during quantization. カスタムImatrixキャリブレーション: ターゲットデータセットを用いた重要度行列(imatrix)の生成により、量子化プロセスにおけるモデルの「論理的骨格」を維持しています。
  2. Tiered Penalty Scaling: Unique configurations for presence_penalty and repeat_penalty were applied to each parameter class to prevent cognitive drift. 階層型ペナルティ・スケーリング: 各パラメータクラスに応じたpresence_penaltyrepeat_penaltyの独自設定により、認知的ドリフトを防止しています。
  3. Japanese Language Prioritization: The imatrix process was specifically optimized for high-fidelity Japanese performance, ensuring cultural and linguistic nuance is preserved even at low bitrates. 日本語優先最適化: 日本語のパフォーマンスを最優先にimatrixプロセスを最適化。低ビットレートにおいても、文化的・言語的なニュアンスを高度に維持します。

📊 The Fleet Tiers / 艦隊ティア

Designation / 名称 Parameters Focus / 焦点 Benchmark (TPS) Size (Avg) / サイズ
GHOST 0.8B Legacy Reclamation 6+ (CPU) / 130+ (GPU) < 1 GB
VANGUARD 2B High-Density Logic 115+ (GPU) 1.3 GB
GUARDIAN 4B Technical Accuracy 60+ (GPU) 2.7 GB
TITAN 9B Deep Architecture 40+ (GPU) 5.6 GB
COLOSSUS 27B Frontier-class Intelligence 15+ (GPU) 16.0 GB

Key Milestone: The Vanguard Efficiency / ヴァンガードの効率性

The Vanguard-2B (IQ3_M) achieves 124 TPS while maintaining full C++ systems architecture capabilities and bilingual (EN/JP) fluidity.

Vanguard-2B (IQ3_M)は、C++システムアーキテクチャの完全な記述能力と日英バイリンガルの流暢性を維持しつつ、124 TPSという驚異的な速度を達成しました。

⚙️ Configuration Parameters / 設定パラメータ

  • Repeat Penalty: 1.4 (Ghost/Vanguard), 1.15 (Guardian/Titan/Colossus),
  • Presence Penalty: 0.50 (Ghost/Vanguard), 0.10 (Guardian), 0.00 (Titan/Colossus)
  • Context Length: 4096

🕊️ The Setomono Spirit / 瀬戸物の精神

This work is provided as a testament to the reclamation of local silicon. It requires no cloud, no subscription, and no external validation. The iron is yours. The intelligence is Sovereign.

この成果は、ローカルな「鉄(シリコン)」の奪還の証です。クラウドも、サブスクリプションも、外部の承認も必要ありません。鉄はあなたのもの。知性は、あなたの主権(Sovereign)の下に。


Forged by the FieldMouse-AI Foundry / FieldMouse-AI鍛造所にて製作