37 5 months ago

29/04/2025 Qwen3-32b está al nivel de o3-mini

tools 14b

Models

View all →

1 model

qwen3:14b

9.3GB · 40K context window · Text · 5 months ago

Readme

Qwen 3 es la última generación de modelos de gran lenguaje en la serie Qwen, que ofrece un amplio conjunto de modelos de densos y mezcla de expertos (MoE).

Modelo 4B destrozando a Gemma 3, 27B y 4o

Razona o no segun la pregunta y ademas puedes controlarlo con:

/no_think o /think

10 veces más rápida, usando la misma VRAM!

El modelo insignia, Qwen3-235B-A22B, logra resultados competitivos en evaluaciones de referencia de codificación, matemáticas, capacidades generales, etc., en comparación con otros modelos de primer nivel como DeepSeek-R1, o1, o3-mini, Grok-3 y Gemini-2.5-Pro.

Además, el modelo pequeño de MoE, Qwen3-30B-A3B, supera a QwQ-32B con 10 veces de parámetros activados, e incluso un pequeño modelo como Qwen3-4B puede rivalizar con el rendimiento de Qwen2.5-72B-Instruct.

37a622f9-71bb-49df-9fea-161b925e4853.png

Soporte única de conmutación sin fisuras entre el modo de pensamiento (para el razonamiento lógico complejo, matemáticas y codificación) y el modo no pensado (para un diálogo eficiente y de propósito general) dentro de un solo modelo, garantizando un rendimiento óptimo en varios escenarios.

Importantemente mejora en sus capacidades de razonamiento, superando el QwQ anterior (en modo de pensamiento) y Qwen2.5 instruct models (en modo no pensado) en matemáticas, generación de código y razonamiento lógico de sentido común.

Alineación de preferencias humanas superiores, sobresaliente en la escritura creativa, juegos de rol, diálogos multigiro e instrucción de seguimiento, para ofrecer una experiencia conversacional más natural, atractiva e inmersiva.

7ac69e9c-c4d9-45c1-8bd6-a9787c8c454c.png

Concientizar en capacidades de agente, permitiendo una integración precisa con herramientas externas tanto en modos de pensamiento como de pensamiento y logrando un rendimiento líder entre modelos de código abierto en tareas complejas basadas en agentes.

Apoyo a más de más de 100 idiomas y dialectos con fuertes capacidades para la instrucción multilingue y la traducción.

Modelo de parametros de 0,61

ollama run qwen3:0.6b

Modelo de paramemetización de 1.7B

ollama run qwen3:1.7b

Modelo de paramemetización 4B

ollama run qwen3:4b

Modelo de paramemetracerzo de 8B

ollama run qwen3:8b

Modelo de paramemetracerdo 14B

ollama run qwen3:14b

Modelo de paramemetización de 32B

ollama run qwen3:32b

Modelo de mezcla de expertos de 30B con parámetros activos 3B

ollama run qwen3:30b-a3b

Modelo de mezcla de bioexpertos 235B con parámetros activos de 22B

ollama run qwen3:235b-a22b