studioglobal
الأكثر رواجًا في الاكتشاف
الإجاباتمنشور11 المصادر

مقارنة Claude Opus 4.7 وGPT-5.5 وDeepSeek V4 وKimi K2.6: أي معيار يمكن الوثوق به؟

لا توجد حالياً مقارنة مستقلة موحّدة تكفي لترتيب النماذج الأربعة من 1 إلى 4؛ فـ Artificial Analysis يمنح Claude Opus 4.7 درجة 57، بينما يذكر أن GPT 5.5 xhigh يتصدر المؤشر بدرجة 60 من بين 356 نموذجاً، وLLM Stats يبيّن أ... DeepSeek V4/V4 Pro يبدو جذاباً من زاوية التكلفة والمرونة، لكن يجب عدم خلط DeepSeek V4 Preview ال...

18K0
Ilustrasi perbandingan benchmark Claude Opus 4.7, GPT-5.5, DeepSeek V4, dan Kimi K2.6
Claude Opus 4.7 vs GPT-5.5 vs DeepSeek V4 vs Kimi K2.6: Benchmark Mana yang Bisa DipercayaIlustrasi editorial tentang perbandingan benchmark dan trade-off model AI frontier.
موجّه الذكاء الاصطناعي

Create a landscape editorial hero image for this Studio Global article: Claude Opus 4.7 vs GPT-5.5 vs DeepSeek V4 vs Kimi K2.6: Benchmark Mana yang Bisa Dipercaya?. Article summary: Jangan buat ranking absolut 1–4 dari bukti saat ini: Artificial Analysis mencatat GPT 5.5 xhigh di skor 60 dan Claude Opus 4.7 di skor 57, tetapi sumber yang tersedia belum menguji Claude, GPT 5.5, DeepSeek V4, dan Ki.... Topic tags: ai, llm benchmarks, claude, openai, deepseek. Reference image context from search candidates: Reference image 1: visual subject "[Kimi K2 vs Claude Opus 4.7 vs GPT 5.5 Comparison](https://www.youtube.com/watch?v=M90iB4hpenI). ![Image 4](https://www.youtube.com/watch?v=M90iB4hpenI). [](https://www.youtube.com" source context "Kimi K2 vs Claude Opus 4.7 vs GPT 5.5 Comparison - YouTube" Reference image 2: visual subject "[Kimi K2 vs Claude Opus 4.7 vs GPT 5.5 Comparison](https://www

openai.com

اختبارات نماذج الذكاء الاصطناعي مغرية دائماً: رقم واحد، جدول واحد، ثم إعلان الفائز. لكن في حالة Claude Opus 4.7 وGPT-5.5 وDeepSeek V4/V4-Pro وKimi K2.6، هذا التبسيط قد يضلل أكثر مما يفيد. فالمراجع المتاحة لا تختبر النماذج الأربعة بالطريقة نفسها؛ بعضها يقارن زوجاً بزوج، وبعضها يستخدم تسميات مختلفة للنموذج، وبعضها أقرب إلى انطباعات مجتمع المطورين لا إلى معيار مستقل موحّد [13][14][15].

الخلاصة السريعة

لا توجد أرضية قوية بما يكفي لإعلان ترتيب نهائي من المركز الأول إلى الرابع. أقوى ما يمكن قوله الآن أن Claude Opus 4.7 وGPT-5.5 يشكلان خط أساس متقدماً للمقارنة: Artificial Analysis يسجل Claude Opus 4.7 بدرجة 57 في Intelligence Index، بينما تذكر صفحة أخرى من Artificial Analysis أن GPT-5.5 xhigh يتصدر المؤشر بدرجة 60 من بين 356 نموذجاً [12][15]. في المقابل، يوضح LLM Stats أن النموذجين يتبادلان التفوق حسب نوع الاختبار، لا أن أحدهما يفوز في كل شيء [14].

DeepSeek V4/V4-Pro مرشح مهم إذا كانت التكلفة وحجم الاستخدام عاملين حاسمين، لكن يجب الانتباه إلى اختلاف التسمية. Mashable يتحدث عن DeepSeek V4 Preview كنموذج مفتوح المصدر بترخيص MIT، بينما تتناول Artificial Analysis وLushbinary اسم DeepSeek V4 Pro في سياق المقارنة والسعر [1][13][16]. أما Kimi K2.6 فيبدو مثيراً للاهتمام خصوصاً للبرمجة، لكن الأدلة المتاحة هنا تأتي بدرجة أكبر من Substack وReddit وYouTube ومقالات مجتمع، لا من اختبارات مستقلة موحّدة [3][6][10][19].

أي المصادر أوثق؟

المصدر الأكثر فائدة هو الذي يوضح بدقة: أي نموذج اختبر، بأي إعدادات، وعلى أي مقاييس. Anthropic مهم للتحقق من توفر Claude Opus 4.7، إذ تذكر الشركة أن المطورين يستطيعون استخدام claude-opus-4-7 عبر Claude API [2]. Artificial Analysis مفيد لقراءة مؤشرات الذكاء والسرعة والسعر وصفحات المقارنة، مثل صفحة Claude Opus 4.7 وصفحة DeepSeek V4 Pro مقابل Claude Opus 4.7 [12][13]. أما LLM Stats فيقدم مقارنة مباشرة بين GPT-5.5 وClaude Opus 4.7 عبر 10 اختبارات مشتركة [14].

في المقابل، مصادر المجتمع والفيديوهات تصلح كإشارات مبكرة لا كقاعدة شراء أو قرار معماري في الإنتاج. بالنسبة إلى Kimi K2.6، تشمل المراجع المتاحة Substack وReddit وYouTube ومقالات عامة، بينما صفحة Artificial Analysis المتاحة تتناول Kimi K2 مقابل Claude 4 Opus، لا Kimi K2.6 مقابل Claude Opus 4.7 [3][6][10][15][19]. لذلك لا يصح استخدام أرقام Kimi K2 كأنها دليل مباشر على أداء Kimi K2.6.

الصورة العامة حسب النموذج

النموذجأقوى دليل متاح هناالاستنتاج الآمنالتحفظ الأساسي
Claude Opus 4.7نموذج رسمي متاح عبر Claude API؛ درجة 57 في Artificial Analysis Intelligence Index؛ وسرعة إخراج 48.6 وحدة نصية في الثانية عبر API من Anthropic [2][12].مرشح قوي للتفكير المعقد، والتقييمات الأكاديمية، وبعض اختبارات البرمجة.ليس الأسرع تلقائياً؛ سرعة 48.6 وحدة نصية في الثانية أقل من وسيط 61.5 وحدة نصية في الثانية لنماذج reasoning في فئة سعرية مشابهة وفق Artificial Analysis [12].
GPT-5.5LLM Stats يقارنه مباشرة مع Claude Opus 4.7؛ وArtificial Analysis يذكر أن GPT-5.5 xhigh يتصدر Intelligence Index بدرجة 60 من بين 356 نموذجاً [14][15].مرشح قوي للمهام الوكيلية التي تستخدم الطرفية، التصفح، بيئة نظام التشغيل، أو سيناريوهات أمنية.الأدلة المقتبسة هنا تأتي من أطراف ثالثة، لا من صفحة رسمية لـ OpenAI.
DeepSeek V4 / V4-ProMashable يصف DeepSeek V4 Preview كنموذج مفتوح المصدر بترخيص MIT؛ وArtificial Analysis يقارن DeepSeek V4 Pro مع Claude Opus 4.7؛ وLushbinary يورد تكلفة إخراج V4-Pro عند 3.48 دولارات لكل مليون وحدة نصية [1][13][16].مرشح قيمة يستحق الاختبار الداخلي، خصوصاً في الأحمال الكبيرة.V4 Preview وV4 Pro تسميتان تظهران في مصادر مختلفة؛ لا تفترض أنهما الشيء نفسه بلا تحقق.
Kimi K2.6المصادر المتاحة أساساً من Substack وReddit وYouTube ومقالات مجتمع؛ أما Artificial Analysis فيتناول Kimi K2 لا Kimi K2.6 [3][6][10][15][19].مرشح تجريبي واعد للبرمجة والمهام الوكيلية.أضعف النماذج الأربعة من حيث قوة الدليل العام لترتيب شامل.

Claude Opus 4.7: قوي في reasoning، لكن راقب السرعة

ميزة Claude Opus 4.7 الأولى أن وجوده وإتاحته موثقان من المصدر الرسمي: Anthropic تقول إن المطورين يستطيعون استخدام claude-opus-4-7 عبر Claude API [2]. ومن زاوية الاختبارات المنظمة، تسجل Artificial Analysis نموذج Claude Opus 4.7 Adaptive Reasoning, Max Effort بدرجة 57 في Intelligence Index، وهي أعلى من متوسط/وسيط النماذج القابلة للمقارنة المذكور عند 33 [12].

في مقارنة LLM Stats، يتفوق Claude Opus 4.7 على GPT-5.5 في GPQA وHLE وSWE-Bench Pro وMCP Atlas وFinanceAgent v1.1 [14]. لذلك يبدو مناسباً كمرشح أولي في الأعمال التي تتطلب reasoning عميقاً، أو تحليلاً متخصصاً، أو اختبارات برمجية محددة. لكن الإنتاج لا يعيش على الدقة وحدها: Artificial Analysis تورد سرعة إخراج 48.6 وحدة نصية في الثانية، وهي أقل من وسيط 61.5 وحدة نصية في الثانية لنماذج reasoning في فئة سعرية مشابهة [12].

GPT-5.5: قوته تظهر في بيئات العمل والأدوات

لا يقول LLM Stats إن GPT-5.5 يفوز في كل اختبار. ما يذكره هو أنه يتقدم على Claude Opus 4.7 في Terminal-Bench 2.0 وBrowseComp وOSWorld وCyberGym، بينما يتقدم Claude في اختبارات أخرى [14]. هذه النقطة مهمة لأن هذه الاختبارات أقرب إلى أنظمة تستخدم أدوات وبيئات فعلية: طرفية، متصفح، نظام تشغيل، أو سيناريوهات أمنية.

تذكر صفحة Artificial Analysis المتاحة أيضاً أن GPT-5.5 xhigh يتصدر Artificial Analysis Intelligence Index بدرجة 60 من بين 356 نموذجاً [15]. لكن ضمن الأدلة المعروضة هنا، المعلومات القابلة للاقتباس عن GPT-5.5 تأتي من جهات اختبار خارجية مثل LLM Stats وArtificial Analysis [14][15]. لذلك الاستنتاج الأقوى ليس أن GPT-5.5 أفضل دائماً، بل أنه يجب أن يدخل الاختبار إذا كان منتجك يعتمد على orchestration للأدوات، أو التصفح، أو الطرفية، أو مهام متعددة الخطوات.

DeepSeek V4/V4-Pro: حجته الأقوى هي القيمة مقابل التكلفة

ينبغي قراءة DeepSeek بحذر لأن المصادر لا تستخدم التسمية نفسها. Mashable يتناول DeepSeek V4 Preview كنموذج مفتوح المصدر يمكن تنزيله وتعديله تحت ترخيص MIT [1]. في المقابل، تقارن Artificial Analysis بين DeepSeek V4 Pro Reasoning, High Effort وClaude Opus 4.7 Adaptive Reasoning, Max Effort عبر الذكاء والسعر والسرعة ونافذة السياق ومقاييس أخرى [13].

نقطة الجذب الأوضح في DeepSeek V4-Pro هي السعر. Lushbinary يورد أن تكلفة الإخراج في DeepSeek V4-Pro تبلغ 3.48 دولارات لكل مليون وحدة نصية، مقابل 25 دولاراً لـ Claude Opus 4.7 و30 دولاراً لـ GPT-5.5 [16]. هذا يجعل DeepSeek مرشحاً لاختبارات التوجيه بين النماذج، أو الاستخدام كخيار احتياطي، أو المعالجة الدف batch. لكن لأن هذه الأرقام تأتي من مصدر ثانوي، يجب التحقق من صفحات التسعير الرسمية قبل تحويلها إلى قرار تعاقدي.

Kimi K2.6: لا تخلط بين الحماس للبرمجة والدليل الحاسم

يظهر Kimi K2.6 كثيراً في نقاشات نماذج البرمجة وسير العمل الوكيلية، لكن المراجع المتاحة ليست بالقوة نفسها التي نراها مع Claude Opus 4.7 أو GPT-5.5. الأدلة هنا تشمل Substack وReddit وYouTube ومقالات عامة تقارن Kimi K2.6 مع Claude Opus 4.7 [3][6][10][19]. هذا مفيد لاكتشاف مرشح جديد للاختبار، لكنه لا يكفي للقول إن Kimi K2.6 يتفوق عموماً.

الفخ الأكبر في موضوع Kimi هو استخدام بيانات Kimi K2 كدليل على Kimi K2.6. لدى Artificial Analysis صفحة عن Kimi K2 مقابل Claude 4 Opus، لكنها ليست عن Kimi K2.6 وليست مقارنة مباشرة مع Claude Opus 4.7 [15]. إذا كان القرار مهماً، فيجب اختبار Kimi K2.6 على المستودعات البرمجية نفسها، ومجموعات الاختبار نفسها، وسلاسل الأدوات نفسها التي ستستخدمها مع المرشحين الآخرين.

السعر ونافذة السياق: ما يهم في الإنتاج

يورد LLM Stats أن GPT-5.5 يكلف 5 دولارات للإدخال و30 دولاراً للإخراج لكل مليون وحدة نصية، بينما يكلف Claude Opus 4.7 خمسة دولارات للإدخال و25 دولاراً للإخراج لكل مليون وحدة نصية، مع رسوم مضاعفة 2x للمدخلات الطويلة التي تتجاوز 200 ألف وحدة نصية [14]. ويذكر المصدر نفسه أن GPT-5.5 وClaude Opus 4.7 يقدمان نافذة سياق بحجم مليون وحدة نصية لكل منهما [14].

بالنسبة إلى التكلفة المنخفضة، تبدو أرقام DeepSeek V4-Pro جذابة في تقرير Lushbinary، لكن رقم 3.48 دولارات لكل مليون وحدة نصية مخرجة يجب التعامل معه كإشارة أولية إلى أن يتم التحقق منه من تسعير البائع الرسمي [16]. كذلك، نافذة السياق الكبيرة لا تضمن جودة الإجابة تلقائياً؛ ينبغي اختبار الاسترجاع، والالتزام بالتعليمات، وتكلفة الوحدات النصية، وتدهور الإجابة عند استخدام مطالبات طويلة.

كيف تختار عملياً؟

  • لخط أساس الجودة: ابدأ باختبار Claude Opus 4.7 وGPT-5.5. الأول يسجل 57 في Artificial Analysis، والثاني مذكور بوصفه متصدراً بدرجة 60، وLLM Stats يوضح أن كلاً منهما يتقدم في اختبارات مختلفة [12][14][15].
  • للمهام الوكيلية: أعط وزناً أكبر لـ GPT-5.5 إذا كانت أحمالك تشبه مهام الطرفية أو التصفح أو نظام التشغيل أو التقييمات الأمنية، لأن هذه هي المجالات التي تقدم فيها وفق LLM Stats [14].
  • لـ reasoning وبعض اختبارات البرمجة: أعط وزناً أكبر لـ Claude Opus 4.7 إذا كانت مقاييسك تشبه GPQA أو HLE أو SWE-Bench Pro أو MCP Atlas أو FinanceAgent v1.1 [14].
  • للتكلفة والأحجام الكبيرة: اختبر DeepSeek V4-Pro كمرشح للتوجيه أو fallback، لكن تحقق من السعر والجودة على أحمالك أنت [16].
  • لتجارب البرمجة البديلة: أدخل Kimi K2.6 إلى التجارب فقط إذا كنت ستخضعه للتقييم الداخلي الصارم نفسه، لأن الدليل العام المتاح عنه أكثر تشتتاً [3][6][10][19].

الخلاصة

أكثر قراءة موثوقة الآن ليست جدول فائز واحد، بل تجميع حذر للمصادر: Anthropic للتحقق من توفر Claude Opus 4.7، وArtificial Analysis وLLM Stats للاختبارات المنظمة، وMashable لفهم سياق DeepSeek V4 Preview المفتوح المصدر، ومصادر المجتمع كإشارات أولية فقط حول Kimi K2.6 [1][2][12][13][14][15].

إذا كان لا بد من قرار تشغيلي، فاجعل Claude Opus 4.7 وGPT-5.5 خط الأساس المتقدم، وأضف DeepSeek V4-Pro لاختبار القيمة مقابل التكلفة، وتعامل مع Kimi K2.6 كمرشح تجريبي إلى أن تظهر مقارنة مستقلة تختبر النماذج الأربعة بالمنهجية نفسها [13][14][15][19].

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

ابحث وتحقق من الحقائق مع Studio Global AI

الوجبات السريعة الرئيسية

  • لا توجد حالياً مقارنة مستقلة موحّدة تكفي لترتيب النماذج الأربعة من 1 إلى 4؛ فـ Artificial Analysis يمنح Claude Opus 4.7 درجة 57، بينما يذكر أن GPT 5.5 xhigh يتصدر المؤشر بدرجة 60 من بين 356 نموذجاً، وLLM Stats يبيّن أ...
  • DeepSeek V4/V4 Pro يبدو جذاباً من زاوية التكلفة والمرونة، لكن يجب عدم خلط DeepSeek V4 Preview المفتوح المصدر مع DeepSeek V4 Pro المستخدم في مقارنات وأسعار أخرى [1][13][16].
  • Kimi K2.6 يستحق التجربة في البرمجة والمهام الوكيلية، لكن الأدلة العامة المتاحة عنه أكثر اعتماداً على المجتمع والمحتوى الفردي، ولا يصح نقل نتائج Kimi K2 تلقائياً إليه [3][6][10][15][19].

يسأل الناس أيضا

ما هي الإجابة المختصرة على "مقارنة Claude Opus 4.7 وGPT-5.5 وDeepSeek V4 وKimi K2.6: أي معيار يمكن الوثوق به؟"؟

لا توجد حالياً مقارنة مستقلة موحّدة تكفي لترتيب النماذج الأربعة من 1 إلى 4؛ فـ Artificial Analysis يمنح Claude Opus 4.7 درجة 57، بينما يذكر أن GPT 5.5 xhigh يتصدر المؤشر بدرجة 60 من بين 356 نموذجاً، وLLM Stats يبيّن أ...

ما هي النقاط الأساسية التي يجب التحقق منها أولاً؟

لا توجد حالياً مقارنة مستقلة موحّدة تكفي لترتيب النماذج الأربعة من 1 إلى 4؛ فـ Artificial Analysis يمنح Claude Opus 4.7 درجة 57، بينما يذكر أن GPT 5.5 xhigh يتصدر المؤشر بدرجة 60 من بين 356 نموذجاً، وLLM Stats يبيّن أ... DeepSeek V4/V4 Pro يبدو جذاباً من زاوية التكلفة والمرونة، لكن يجب عدم خلط DeepSeek V4 Preview المفتوح المصدر مع DeepSeek V4 Pro المستخدم في مقارنات وأسعار أخرى [1][13][16].

ماذا يجب أن أفعل بعد ذلك في الممارسة العملية؟

Kimi K2.6 يستحق التجربة في البرمجة والمهام الوكيلية، لكن الأدلة العامة المتاحة عنه أكثر اعتماداً على المجتمع والمحتوى الفردي، ولا يصح نقل نتائج Kimi K2 تلقائياً إليه [3][6][10][15][19].

ما هو الموضوع ذو الصلة الذي يجب أن أستكشفه بعد ذلك؟

تابع مع "Claude Security من Anthropic: شرح النسخة التجريبية لفحص ثغرات الشيفرة بالذكاء الاصطناعي" لزاوية أخرى واستشهادات إضافية.

فتح الصفحة ذات الصلة

ما الذي يجب أن أقارنه بهذا؟

تحقق من هذه الإجابة مقابل "Grok 4.3 API: مليون توكن وسعر منخفض… كيف تراهن xAI على النماذج والصوت؟".

فتح الصفحة ذات الصلة

مواصلة البحث الخاص بك

محادثة بحثية

أنت

سؤال بحثي

Teliti benchmark Claude Opus 4.7, GPT-5.5, DeepSeek V4, dan Kimi K2.6.

Studio Global AI20 المصادر

إجابة مستشهد بها

Saya menemukan bukti publik yang cukup untuk membandingkan sebagian benchmark Claude Opus 4.7, GPT-5.5, DeepSeek V4, dan Kimi K2.6, tetapi belum ada satu sumber independen kuat yang menguji keempatnya secara lengkap dan seragam. Jadi kesimpulan terbaik saat ini: Claude Opus 4.7 dan GPT-5.5 tampak berada di tier frontier, DeepSeek V4 kuat di rasio harga/kinerja, sementara Kimi K2.6 terutama sering disebut kompetitif untuk coding/agentic workflow, tetapi buktinya lebih lemah.

Temuan utama

  • Claude Opus 4.7 punya halaman resmi dari Anthropic, jadi keberadaan model ini paling kuat terverifikasi dibanding klaim komunitas lain [5].

  • Artificial Analysis mencatat Claude Opus 4.7 “Adaptive Reasoning, Max Effort” mendapat skor 57 pada Artificial Analysis Intelligence Index, jauh di atas rata-rata model pembanding yang disebut 33 [1].

  • Artificial Analysis juga menyediakan perbandingan Claude Opus 4.7 vs DeepSeek V4 Pro berdasarkan intelligence, price, speed, dan context window, tetapi cuplikan hasil pencarian tidak memberikan semua angka benchmark rinci [3].

  • Untuk GPT-5.5 vs Claude Opus 4.7, LLM Stats melaporkan keduanya saling unggul di 10 benchmark: Opus 4.7 unggul di GPQA, HLE, SWE-Bench Pro, MCP Atlas, dan FinanceAgent v1.1; GPT-5.5 unggul di Terminal-Bench 2.0, BrowseComp, OSWorld, dan CyberGym [4].

  • LLM Stats juga melaporkan harga GPT-5.5 sebesar $5 input / $30 output per 1 juta token, sedangkan Claude Opus 4.7 sebesar $5 input / $25 output per 1 juta token dengan surcharge 2× untuk long prompt di atas 200K token [4].

  • Mashable melaporkan DeepSeek V4 Preview sebagai model open-source terbaru DeepSeek, tetapi sumber itu tidak cukup untuk menyimpulkan performa benchmark lengkap terhadap semua model lain [2].

  • Lushbinary mengklaim DeepSeek V4-Pro jauh lebih murah untuk output, yaitu $3.48 per 1 juta token dibanding $25 untuk Opus 4.7 dan $30 untuk GPT-5.5, tetapi ini perlu dianggap sekunder sampai diverifikasi dari pricing resmi masing-masing vendor [7].

  • Untuk Kimi K2.6, bukti benchmark yang muncul lebih banyak berasal dari komunitas, Reddit, Substack, YouTube, dan artikel opini; itu tidak sekuat sumber resmi atau benchmark independen terstruktur [10][11][14].

Ringkasan per model

ModelKesan benchmarkKekuatan yang terlihatCatatan keandalan
Claude Opus 4.7Sangat kuatReasoning, GPQA/HLE, SWE-Bench Pro menurut LLM StatsPaling kuat terverifikasi karena ada sumber resmi Anthropic dan Artificial Analysis [1][5]
GPT-5.5Sangat kuatTerminal-Bench 2.0, BrowseComp, OSWorld, CyberGym menurut LLM StatsData publik ada, tetapi perlu konfirmasi dari benchmark independen lain [4]
DeepSeek V4 / V4-ProKuat, terutama valueHarga/kinerja dan open-source positioningAngka performa lengkap terhadap semua model belum cukup kuat dari sumber yang tersedia [2][3][7]
Kimi K2.6Menjanjikan untuk coding/agenticSering disebut kompetitif di coding workflowInsufficient evidence untuk ranking final karena sumber kuat masih terbatas [10][11][14]

Kesimpulan praktis

  • Jika prioritas Anda adalah kemampuan umum dan reasoning: pilih Claude Opus 4.7 atau GPT-5.5.

  • Jika prioritasnya coding benchmark tertentu: Claude Opus 4.7 terlihat kuat di SWE-Bench Pro, sementara GPT-5.5 terlihat kuat di terminal/browser/OS/cyber task menurut LLM Stats [4].

  • Jika prioritasnya biaya: DeepSeek V4-Pro tampak paling menarik, tetapi validasi ulang harga dan kualitas output di workload Anda sendiri tetap penting [7].

  • Jika prioritasnya eksperimen coding agent murah/alternatif: Kimi K2.6 layak diuji, tetapi belum cukup bukti untuk menyebutnya mengalahkan Opus 4.7 atau GPT-5.5 secara umum.

Insufficient evidence untuk membuat ranking absolut 1–4 yang adil, karena benchmark yang tersedia tidak semuanya memakai metodologi, effort setting, harga, context length, dan tool environment yang sama.

المصادر