Qwen 3

في 29 أبريل 2025 أعلنت «علي بابا كلاود» عن الجيل الجديد من نماذجها مفتوحة المصدر Qwen 3.0، وهو عائلة كاملة من نماذج اللغة الكبيرة (LLMs) تركّز على «التفكير الهجين» Hybrid Reasoning وتستهدف منافسة نماذج عملاقة مثل DeepSeek-R1 وGemini 2.5 Pro وOpenAI o-3.

ما الجديد في Qwen 3؟

  • وضعا تفكير: دمجت Qwen 3 بين «وضع تفكير» بطيء لكن عميق، ووضع سريع للإجابات البسيطة، مع إمكانيّة ضبط ميزانيّة التفكير لكل مهمة.
  • معمارية MoE هجينة: تضم السلسلة نموذجين Mixture-of-Experts بكفاءة حوسبيّة أعلى (Qwen3-235B-A22B وQwen3-30B-A3B) إلى جانب ستة نماذج كثيفة Dense
  • تدريب ضخم ومتعدد اللغات: جرى التدريب على 36 تريليون رمز، مع دعم 119 لغة من بينها العربية.
  • سياق طويل: طول السياق الأصلي 32 k رمز ويمكن تمديده حتى 131 k باستخدام أسلوب RoPE-YaRN.
  • رخصة Apache 2.0: جميع الأوزان متاحة مجانًا للاستخدام التجاري والبحثي مع شروحات تفصيلية على GitHub وهَجِّنغ فيس.
الفئةإجمالي المعاملاتنوع النموذجالمفعّل لكل استدعاءأبرز الاستخدامات
Qwen3-235B-A22B235 مليارMoE22 Bبحث، علوم، أدوات تفكير عميق
Qwen3-30B-A3B30 مليارMoEB 3تشغيل محلي قوي، وكلاء AI
Qwen3-32B / 14B / 8B / 4B / 1.7B / 0.6B0.6–32 BDenseكاملتطبيقات خفيفة، أجهزة متوسطة

الأداء على أشهر معايير الاختبار

  • MMLU & BBH (معرفة عامة واستدلال): يتفوّق Qwen3-235B على DeepSeek-R1 وLLaMA-4-Maverick.
  • GSM8K & MATH (رياضيات): يتصدّر Qwen3-235B وQwen3-30B النتائج، متجاوزين Qwen 2.5-Max وDeepSeek-V3.
  • HumanEval & LiveCodeBench (برمجة): يسبق Qwen3-32B نموذج OpenAI o-1 في دقّة توليد الشيفرة.

ملحوظة: الأرقام أعلاه مأخوذة من تقارير Alibaba وقياسات طرف ثالث؛ قد تختلف النتائج حسب إعدادات الاختبار

مزايا مفتاحية للمطورين والشركات

  1. استدعاء الأدوات Tool Calling مدمج: يسمح للنموذج بتنفيذ وظائف خارجية مثل البحث وتحرير الملفات بسهولة.
  2. عملاء ووكلاء ذكيون: بنية «التفكير الهجين» تجعل Qwen 3 ملائمًا لوكلاء متعدد الخطوات حيث يُوزَّع التفكير حسب صعوبة المهمة.
  3. نشر مرن:
    • محليًا عبر GGUF أو Transformers مع دعم سياق يصل 128 k.
    • سحابيًا من خلال Fireworks AI، Hyperbolic، وOpenRouter مع خطط دفع حسب الاستهلاك.
  4. توافق لغوي واسع: حسن استيعاب للنصوص العربية بفضل بيانات ما قبل التدريب الضخمة.

كيفية البدء

تشغيل محلي

pip install transformers accelerate
from transformers import AutoModelForCausalLM, AutoTokenizer
tok = AutoTokenizer.from_pretrained("Qwen/Qwen3-32B-Instruct", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-32B-Instruct", device_map="auto")
print(model(tok("السلام عليكم، كيف أساعدك؟", return_tensors="pt").to(0)).logits

يُفضَّل بطاقة GPU بسعة 24 GB على الأقل للنموذج 32B، أو استخدم نسخ GGUF كميّة للتشغيل على CPU.

استخدام عبر واجهات برمجيّة

  • OpenRouter: استدعِ النموذج بالرمز qwen3-30b-a3b واضبط الحصة الزمنية.
  • API Alibaba Cloud: يتطلب مفتاح وصول، يدعم إدارة الحصص وتتبّع الاستهلاك.

التحدّيات والقيود

جانبملاحظات
متطلّبات الذاكرةالنموذج 235B يحتاج ≥ 8 × H100 80GB أو مكبّر Infiniband
زمن الاستجابةوضع «التفكير» يزيد زمن الإجابة؛ يناسب المهام الحرجة للدقة أكثر من الزمن
مخاطر المحتوىرغم فلاتر التدريب، قد يقدّم مخرجات متحيّزة أو غير دقيقة؛ ينصح بنظام مراجعة بشري

استخدامات محتملة

  • مساعد برمجي داخلي للشركات الناشئة بدعم توليد كود وفحص وحدة الاختبار.
  • أنظمة دعم فني بعد ضبط سياق طويل لاستيعاب أدلة المستخدم الكاملة.
  • منصّات تعليمية لإعداد اختبارات رياضية تفاعلية ووحدات شرح متعددة اللغات.
  • أدوات أبحاث علميّة لفرز الأوراق وتحليل البيانات الأولية.

خاتمة

يمثّل Qwen 3.0 خطوة كبيرة في سباق النماذج المفتوحة، مُقدّماً مزيجًا نادرًا من الأداء العالي، الرخصة المنفتحة، والمرونة بين وضعَي التفكير السطحي والعميق. ومع توفير إصدارات تناسب الحواسيب الشخصية والخوادم العملاقة معًا، يُتوقَّع أن يكون Qwen 3 لاعبًا أساسيًا في مشهد الذكاء الاصطناعي خلال عام 2025 وما بعده.

إذا كنت مطوّرًا أو صاحب عمل يبحث عن نموذج قوي، مجاني، وقابل للتخصيص، فإن Qwen 3 يستحق التجربة الجادّة.

موضوعات ذات صلة