حتى أبريل/نيسان 2026، لا توجد في البيانات العامة إجابة من نوع: النموذج الفائز في كل شيء. الأفضل قراءة المقارنة كخريطة استخدام: نموذج لوكلاء يستعملون المتصفح والطرفية، نموذج لإصلاح مستودعات البرمجيات، نموذج للنشر بأوزان مفتوحة، ونموذج يستحق التجربة في تطبيقات السياق الطويل. [5][
14][
29][
42]
أول تنبيه مهم: أرقام البنشماركات هنا ليست مقارنة مثالية من نوع apples-to-apples. المختبرات، الأدوات، إعدادات الجهد، وأنظمة التقييم قد تختلف من مصدر إلى آخر. كما يشير LM Council إلى أن النتائج المستقلة قد لا تطابق الأرقام التي تعلنها شركات النماذج بنفسها. [12]
الخلاصة السريعة
- لوكلاء يستخدمون الكمبيوتر والمتصفح والطرفية: GPT‑5.5 يعطي أقوى إشارة عامة في هذه الحزمة؛ إذ تورد OpenAI له 82.7% على Terminal‑Bench 2.0، و78.7% على OSWorld‑Verified، و84.4% على BrowseComp، و55.6% على Toolathlon. [
5]
- لإصلاح الكود داخل مستودعات حقيقية: Claude Opus 4.7 هو المرشح الأقوى في القائمة المختصرة؛ من الأرقام المنشورة له 87.6% على SWE‑Bench Verified و64.3% على SWE‑Bench Pro. [
17]
- لمن يريد نموذجاً بأوزان مفتوحة في البرمجة: Kimi K2.6 منافس قوي جداً؛ تورد مواده الرسمية 66.7% على Terminal‑Bench 2.0، و58.6% على SWE‑Bench Pro، و80.2% على SWE‑Bench Verified، و89.6 على LiveCodeBench v6. [
29]
- لتجارب السياق الطويل وخيارات open-source/open-weights: DeepSeek V4 يجب أن يدخل الاختبار، لكن لا بد من قراءة اسم النسخة بدقة؛ فقد أعلنت DeepSeek أن V4 Preview أصبح متاحاً ومفتوح المصدر في 24 أبريل/نيسان 2026. [
42]
- للاستدلال العلمي والرياضي: Claude Opus 4.7 يورد 94.2% على GPQA Diamond؛ Kimi K2.6 يصل إلى 90.5% على GPQA-Diamond و96.4 على AIME 2026؛ وجداول DeepSeek V4-Pro/Pro-Max تورد 90.1 على GPQA Diamond. [
19][
27][
29][
37]
قبل أن تقرأ الأرقام: ما الذي تقيسه هذه الاختبارات؟
- اسم البنشمارك مهم بقدر الرقم. Terminal‑Bench يقيس مهاماً قريبة من الطرفية وسير عمل المطورين، وSWE‑Bench أقرب إلى إصلاح مشكلات في مستودعات برمجية، وBrowseComp يختبر البحث عبر المتصفح، وOSWorld يركز على استخدام الكمبيوتر، بينما GPQA وHLE أقرب إلى الاستدلال المعرفي والعلمي. لذلك قد يتفوق نموذج في البرمجة ولا يكون الأفضل في البحث عبر الويب أو استخدام الأدوات. [
5][
17][
29]
- الأدوات وإعداد الجهد يغيران النتيجة. بطاقة نظام OpenAI تصف GPT‑5.5 Pro بأنه نفس النموذج الأساسي مع إعداد يستخدم parallel test-time compute، ولذلك لا ينبغي قراءة أرقام GPT‑5.5 وGPT‑5.5 Pro كأنهما يعملان بالميزانية الحسابية نفسها. [
3]
- البنشماركات العامة تصلح للفرز الأولي، لا للقرار النهائي. إذا كان القرار سيؤثر في منتج أو تكلفة أو خصوصية بيانات، فالاختبار الداخلي على مهامك الفعلية ضروري، خصوصاً أن النتائج المستقلة قد تختلف عن الأرقام المعلنة ذاتياً. [
12]
صورة سريعة للنماذج
| النموذج | التموضع العام | أقوى إشارة في البيانات المتاحة | التحفظ الأساسي |
|---|---|---|---|
| GPT‑5.5 | مواد OpenAI تركز على استخدام الكمبيوتر، الأدوات، وسير العمل الوكيلي. [ | 82.7% على Terminal‑Bench 2.0، و78.7% على OSWorld‑Verified، و84.4% على BrowseComp؛ وGPT‑5.5 Pro يسجل 90.1% على BrowseComp. [ | لا تقارن رقم Pro مباشرة برقم GPT‑5.5 العادي، لأن Pro يستخدم إعداد parallel test-time compute على النموذج الأساسي نفسه. [ |
| Claude Opus 4.7 | تصفه Anthropic كنموذج hybrid reasoning للبرمجة ووكلاء الذكاء الاصطناعي، مع نافذة سياق 1M. [ | 87.6% على SWE‑Bench Verified و64.3% على SWE‑Bench Pro. [ | نافذة 1M مفيدة، لكنها لا تعني تلقائياً جودة استرجاع مثالية عبر كل النافذة؛ ملخص StationX يذكر تحفظاً عند الاستدعاء في أقصى نطاق 1M. [ |
| Kimi K2.6 | نموذج من Moonshot/Kimi موجه بقوة للبرمجة وبأوزان مفتوحة أو مفتوح المصدر بحسب مواده العامة. [ | 66.7% على Terminal‑Bench 2.0، و58.6% على SWE‑Bench Pro، و80.2% على SWE‑Bench Verified، و89.6 على LiveCodeBench v6. [ | بحسب Artificial Analysis يدعم Kimi K2.6 إدخال الصور والفيديو نصياً بشكل أصيل، مع حد سياق أقصى 256k؛ الأداء الفعلي قد يتغير حسب إعداد النشر. [ |
| DeepSeek V4-Pro / Pro-Max | توثق DeepSeek أن V4 Preview أصبح متاحاً ومفتوح المصدر، وتعرض بطاقة Hugging Face سلسلة V4 كنماذج MoE لغوية. [ | تتضمن الأرقام المنشورة 67.9 على Terminal Bench 2.0، و80.6 على SWE Verified، و55.4 على SWE Pro، و90.1 على GPQA Diamond. [ | اسم DeepSeek V4 يغطي اختلافات بين النسخ؛ لذلك يجب عدم خلط Flash وPro وPro-Max في رقم واحد. [ |
جدول المقارنة المباشرة
| البنشمارك | GPT‑5.5 | Claude Opus 4.7 | Kimi K2.6 | DeepSeek V4-Pro / Pro-Max | كيف نقرأ النتيجة؟ |
|---|---|---|---|---|---|
| Terminal‑Bench 2.0 | 82.7% [ | 69.4% مذكورة [ | 66.7% [ | 67.9 [ | أوضح تقدم لـGPT‑5.5 يظهر في مهام الطرفية والبرمجة الوكيلية. |
| SWE‑Bench Pro | 58.6% [ | 64.3% [ | 58.6% [ | 55.4 [ | في اختبارات هندسة البرمجيات الأصعب، Claude Opus 4.7 يتقدم. |
| SWE‑Bench Verified | لم يظهر في هذه المصادر رقم مباشر قابل للمقارنة | 87.6% [ | 80.2% [ | 80.6 [ | لإصلاح مشكلات المستودعات، أقوى إشارة منشورة هنا لصالح Claude. |
| OSWorld‑Verified | 78.7% [ | 78.0% [ | 73.1% [ | لم يظهر رقم قابل للمقارنة | في استخدام الكمبيوتر، GPT‑5.5 وClaude Opus 4.7 قريبان جداً. |
| BrowseComp | 84.4%؛ وGPT‑5.5 Pro عند 90.1% [ | 79.3% [ | 83.2%؛ وAgent Swarm عند 86.3% [ | لم يظهر رقم قابل للمقارنة | لوكلاء البحث والمتصفح، GPT‑5.5 Pro وKimi Agent Swarm يعطيان إشارات قوية. |
| GPQA Diamond | لم يظهر في هذه المصادر رقم رسمي مباشر قابل للمقارنة | 94.2% [ | 90.5% [ | 90.1 [ | في الاستدلال العلمي بمستوى الدراسات العليا، الرقم الأعلى المنشور هنا لـClaude. |
| HLE / الاستدلال الصعب | لم يظهر رقم مباشر قابل للمقارنة | 46.9% دون أدوات، و54.7% مع الأدوات [ | HLE-Full عند 34.7%؛ ومع الأدوات 54.0% [ | HLE عند 37.7% [ | عند استخدام الأدوات، Claude وKimi قريبان؛ رقم DeepSeek المدرج أقل. |
| السياق الطويل | لا تظهر في مقتطف الإطلاق المتاح مواصفة سياق عامة واضحة | نافذة سياق 1M [ | حد سياق أقصى 256k [ | مواد V4 تقدم تموضعاً واضحاً حول السياق الطويل [ | لا تحكم من حجم النافذة وحده؛ اختبر الاستدعاء والدقة على مستنداتك. |
أي نموذج تختار حسب نوع العمل؟
1. وكلاء الطرفية والمتصفح: GPT‑5.5
إذا كان العمل يتضمن أوامر في الطرفية، استخدام المتصفح، تشغيل أدوات، أو حلقات وكيل متعددة الخطوات، فـGPT‑5.5 يبدو الأقوى في هذه البيانات. أرقام OpenAI المنشورة تتضمن 82.7% على Terminal‑Bench 2.0، و78.7% على OSWorld‑Verified، و84.4% على BrowseComp، و55.6% على Toolathlon. [5]
لكن انتبه إلى GPT‑5.5 Pro: رقمه على BrowseComp يبلغ 90.1%، وهو رقم قوي، إلا أن بطاقة النظام من OpenAI توضّح أن Pro يستخدم إعداد parallel test-time compute على النموذج الأساسي نفسه. لذلك لا تقرأه كأنه نفس ميزانية GPT‑5.5 العادي. [3][
5]
الأنسب له: وكلاء البرمجة، وكلاء البحث عبر المتصفح، أتمتة استخدام الكمبيوتر، والمساعدات المؤسسية كثيفة الأدوات.
2. إصلاح مستودعات الإنتاج: Claude Opus 4.7
إذا كان المؤشر الأهم لديك هو إصلاح أعطال في مستودعات حقيقية، تجهيز pull requests، فهم قواعد كود كبيرة، وتمرير الاختبارات، فـClaude Opus 4.7 هو أقوى مرشح في القائمة المختصرة. أرقامه المنشورة، 87.6% على SWE‑Bench Verified و64.3% على SWE‑Bench Pro، تضعه في المقدمة ضمن اختبارات هندسة البرمجيات هنا. [17]
Anthropic تقدمه أيضاً كنموذج hybrid reasoning للبرمجة ووكلاء الذكاء الاصطناعي مع نافذة سياق 1M، ما يجعله طبيعياً للاختبار في سيناريوهات قواعد الكود الكبيرة. [14]
الأنسب له: صيانة المستودعات، مراجعة الكود، إعادة الهيكلة المعقدة، مساعدين للمطورين، ووكلاء هندسة برمجيات.
3. بنية برمجة بأوزان مفتوحة: Kimi K2.6
إذا كان شرطك الأساسي هو نموذج يمكن تشغيله ضمن مسار أكثر تحكماً أو بأوزان مفتوحة، فـKimi K2.6 من أقوى الخيارات. جدول Kimi الرسمي يورد 66.7% على Terminal‑Bench 2.0، و58.6% على SWE‑Bench Pro، و80.2% على SWE‑Bench Verified، و52.2 على SciCode، و89.6 على LiveCodeBench v6. [29]
كما تظهر مواده العامة إشارات جيدة في الأعمال الوكيلية والبحثية، منها 83.2% على BrowseComp و86.3% في Agent Swarm BrowseComp. [34] وبحسب Artificial Analysis، يدعم النموذج إدخال الصور والفيديو أصيلاً مع حد سياق أقصى 256k. [
32]
الأنسب له: نشر النماذج المفتوحة، وكلاء البرمجة، وكلاء البحث، والفرق التي تحتاج تحكماً أكبر في الاستضافة.
4. تجارب السياق الطويل والبدائل القابلة للنشر: DeepSeek V4
أعلنت DeepSeek أن V4 Preview أصبح متاحاً ومفتوح المصدر في 24 أبريل/نيسان 2026. [42] وتعرض بطاقة DeepSeek‑V4‑Pro على Hugging Face سلسلة V4 كنماذج MoE لغوية. [
37]
الأرقام المنشورة لـDeepSeek V4-Pro/Pro-Max تشمل 67.9 على Terminal Bench 2.0، و80.6 على SWE Verified، و55.4 على SWE Pro، و90.1 على GPQA Diamond. [37] هذا يجعله مرشحاً استراتيجياً لتجارب open-source/open-weights والسياق الطويل، لكن يجب دائماً ربط الرقم بالنسخة الدقيقة: Preview أم Pro أم Pro-Max. [
37][
42]
الأنسب له: تطبيقات السياق الطويل، التجارب المفتوحة، والفرق التي تقارن نماذج frontier المستضافة ببدائل قابلة للنشر.
5. العلوم والرياضيات: Claude يتقدم في GPQA، لكن الصورة ليست أحادية
في الأرقام المتاحة، يصل Claude Opus 4.7 إلى 94.2% على GPQA Diamond. [19] أما Kimi K2.6 فيورد 90.5% على GPQA-Diamond و96.4 على AIME 2026. [
27][
29] وتورد جداول DeepSeek V4-Pro/Pro-Max رقم 90.1 على GPQA Diamond. [
37]
هذا يجعل Claude خياراً قوياً جداً للاستدلال العلمي، لكن لا ينبغي اتخاذ قرار في مهام الرياضيات والعلوم من بنشمارك واحد. إعداد الاختبار، الأدوات، ونمط الجهد قد تغير النتيجة النهائية. [12]
قائمة فحص قبل الاختيار النهائي
- لا تعتمد على رقم عام واحد. استخدم اللوحات العامة للفرز الأولي فقط، ثم شغّل اختبارك الداخلي بنفس المطالبات، نفس الأدوات، نفس المهلة، ونفس معيار التصحيح. [
12]
- افصل GPT‑5.5 عن GPT‑5.5 Pro في التقييم. إعداد Pro يستخدم parallel test-time compute، لذلك لا تجمع نتائجهما كأنهما من الميزانية الحسابية نفسها. [
3]
- حدد شرط الأوزان المفتوحة مبكراً. إذا كانت سيطرة البيانات أو الاستضافة الذاتية أو التخصيص شرطاً أساسياً، ضع Kimi K2.6 وDeepSeek V4 في مسار تقييم منفصل. [
29][
34][
37][
42]
- لا تحكم على السياق الطويل من حجم النافذة فقط. Claude Opus 4.7 يعلن نافذة 1M، وKimi K2.6 يورد 256k كحد أقصى، ومواد DeepSeek V4 تعطي تموضعاً حول السياق الطويل؛ لكن جودة الاسترجاع، اتباع التعليمات، والكلفة يجب اختبارها على مستنداتك. [
14][
17][
32][
37][
42]
- في وكلاء البرمجة، اختبر مستودعك الحقيقي. أرقام SWE‑Bench مفيدة، لكنها لا تعكس دائماً إعداد الاعتماديات، الاختبارات المتقلبة، أسلوب الفريق، وقيود المراجعة داخل الإنتاج. [
17]
القيود والتحفظات
- لم تظهر في هذه الحزمة مقارنة عامة كاملة تضع النماذج الأربعة في مختبر مستقل واحد، وبنفس نظام الاختبار، ونفس الأدوات، ونفس إعداد الجهد؛ وLM Council يحذر أصلاً من اختلاف النتائج المستقلة عن الأرقام المعلنة ذاتياً. [
12]
- لا ينبغي قراءة GPT‑5.5 Pro وGPT‑5.5 كرقم واحد، لأن بطاقة OpenAI تصف Pro كإعداد يستخدم parallel test-time compute على النموذج الأساسي نفسه. [
3]
- أرقام DeepSeek V4 مرتبطة بالنسخة؛ لا يصح تحويل Preview وPro وPro-Max إلى متوسط واحد يسمى DeepSeek V4. [
37][
42]
- في النماذج ذات الأوزان المفتوحة مثل Kimi K2.6 وDeepSeek V4، لا يكفي رقم بطاقة النموذج وحده؛ اختبر إعداد النشر الفعلي الذي ستستخدمه. [
29][
34][
37]
الخلاصة العملية
اختر GPT‑5.5 عندما يكون قلب المنتج هو استخدام الأدوات، المتصفح، الطرفية، وأتمتة الكمبيوتر عبر وكلاء متعددين الخطوات. [5]
ضع Claude Opus 4.7 في المقدمة عندما تكون القيمة الأساسية هي إصلاح الكود على مستوى المستودع، مراجعة التغييرات، وتحسين سير عمل المطورين. [14][
17]
اختبر Kimi K2.6 عندما تحتاج نموذجاً بأوزان مفتوحة مع أداء قوي في البرمجة والبحث الوكيلي. [29][
34]
أدخل DeepSeek V4-Pro/Pro-Max في القائمة المختصرة عندما تكون قابلية النشر وتجارب السياق الطويل من القيود الأساسية، مع التحقق دائماً من النسخة وإعداد البنشمارك. [37][
42]
القرار الأكثر أماناً ليس سؤال: من الأعلى في الجدول؟ بل: من يفشل أقل في مهامي الحقيقية، ضمن ميزانيتي، وزمن الاستجابة المقبول، وقيود الخصوصية لدي؟ ابدأ من البنشماركات، لكن احسم القرار باختبارك الداخلي. [12]




