اختزال المسألة في سؤال «من فاز: OpenAI أم Claude؟» مغرٍ، لكنه يسبق الأدلة. حتى أبريل/نيسان 2026، ما هو متاح علنًا يشير إلى سباق بين OpenAI وAnthropic، الشركة المطوّرة لـClaude، حول اكتشاف الثغرات بمساعدة الذكاء الاصطناعي، وأتمتة بعض مهام الأمن السيبراني، وطريقة إتاحة القدرات عالية المخاطر. لكنه لا يشير إلى مواجهة رسمية لها مجموعة اختبارات موحّدة، وإصدارات نماذج محددة، وصلاحيات أدوات متساوية، ولوحة نتائج عامة قابلة للتحقق.[2][
3]
الخلاصة أولًا
لا يمكن الجزم بأن OpenAI متقدمة في هذا المجال، ولا يمكن الجزم بأن Claude هو المتصدر. تحليل نشرته CRN يضع OpenAI وAnthropic في سياق منافسة على اكتشاف الثغرات بمساعدة الذكاء الاصطناعي، لكنه يشدد على أن سؤال «من سيفوز؟» ليس أكثر ما ينبغي أن يقلق فرق الأمن؛ الضغط الأكبر هو أن الذكاء الاصطناعي قد يسرّع اكتشاف الثغرات وسلاسل الهجوم.[2]
أما مقال Anthropic عن اختبارات Claude في مسابقات الأمن السيبراني فلا يقدّم النتيجة كإعلان فوز شامل. جوهر التحذير فيه أن الذكاء الاصطناعي قد يجعل أتمتة استغلال الثغرات الأساسية أسهل، بما قد يغيّر ميزان القوة بين المهاجمين والمدافعين.[3]
لذلك، الصياغة الأدق هي: الطرفان يدفعان قدرات الذكاء الاصطناعي السيبراني إلى الأمام، ويجرّبان نماذج مختلفة لإتاحة هذه القدرات وإدارتها، لكن لا توجد حتى الآن «بطولة» علنية موحّدة الشروط تمنح لقبًا موثوقًا لأي طرف.[1][
2][
3]
السباق ليس سؤالًا واحدًا
1. من الأفضل في اكتشاف الثغرات؟
بحسب CRN، بعد إعلان Anthropic عن تقدمها في اكتشاف الثغرات المدعوم بالذكاء الاصطناعي عبر Claude Mythos، نشرت OpenAI إعلانات لاحقة في المجال نفسه.[2] هذا وحده يجعل المقارنة تبدو كأنها مواجهة مباشرة: Claude في جهة، وOpenAI في الجهة الأخرى.
لكن اكتشاف الثغرات ليس مهارة واحدة بسيطة. فالنموذج قد يكون جيدًا في قراءة قاعدة شيفرة كبيرة، لكنه أضعف في تقليل الإنذارات الكاذبة. وقد يلتقط خللًا محتملًا، لكنه لا يقدّم دليلًا قابلًا للتحقق، أو لا يقترح إصلاحًا عمليًا. ومن دون ظروف اختبار مشتركة، لا تكفي العروض التوضيحية أو إعلانات الشركات لصناعة ترتيب عام موثوق.[1][
2]
2. من يستطيع أتمتة مهام الهجوم والدفاع؟
يشير مقال Anthropic إلى تحدي HackTheBox AI vs Human CTF Challenge الذي أُقيم من 14 إلى 16 مارس/آذار 2025، ووصفه بأنه تحدٍّ صُمم لمنافسة وكلاء ذكاء اصطناعي أمام مشاركين مفتوحين. وCTF، أو «التقاط العلم»، هي مسابقات أمنية محكومة تُستخدم لاختبار مهارات تحليل الثغرات وحل الألغاز التقنية.[3]
النتيجة الأهم من هذا النوع من الاختبارات ليست مجرد من حصد نقاطًا أكثر. التحذير الأعمق هو أن القدرات نفسها، مثل التفكير البرمجي واستخدام الأدوات وقراءة الشيفرة، يمكن أن تساعد فريق دفاع على تحليل ثغرة بسرعة، ويمكن أيضًا أن تساعد مهاجمًا على تحويل ثغرة معروفة إلى خطوات قابلة للتنفيذ بسرعة أكبر.[3]
3. من يطلق القدرات الخطرة بطريقة أكثر أمانًا؟
تحليل CRN يضع مبادرة OpenAI المسماة Trusted Access for Cyber ضمن السياق نفسه، ما يوضح أن النقاش لا يدور فقط حول «ماذا يستطيع النموذج أن يفعل؟»، بل أيضًا حول «من يحصل على هذه القدرة، وبأي شروط؟».[2]
Anthropic تطرح جانب الحوكمة أيضًا. فقد ذكرت أن فريق Safeguards لديها رصد وحظر مستخدمًا ذا قدرات برمجية محدودة كان يستعين بـClaude لتطوير برمجيات خبيثة.[3] هذا لا يعني أن استخدام الذكاء الاصطناعي في الأمن السيبراني يقود تلقائيًا إلى إساءة الاستخدام، لكنه يوضح أن المراقبة، والتدقيق، وإيقاف الحسابات المخالفة أصبحت جزءًا من تقييم أي نظام من هذا النوع.[
3]
لماذا لا يصح إعلان ترتيب نهائي الآن؟
لكي تكون مقارنة OpenAI وClaude في الأمن السيبراني عادلة، نحتاج على الأقل إلى ستة شروط: مجموعة مهام واحدة، وإصدارات نماذج محددة، وصلاحيات أدوات متساوية، ومستوى متماثل من تدخل البشر، وقيود سلامة متقاربة، ومنهجية درجات علنية قابلة للتكرار.
المواد المتاحة لا تحقق هذه الشروط. مقال Anthropic يقدّم خبرة اختبار Claude في مسابقات سيبرانية ومخاطر الحوكمة، بينما يعرض تحليل CRN صورة المنافسة بين OpenAI وAnthropic في اكتشاف الثغرات واستراتيجيات الإتاحة الآمنة.[2][
3] هذه مواد مفيدة لفهم الاتجاه، لكنها لا تتحول تلقائيًا إلى جدول ترتيب للنماذج.
هنا تظهر أهمية أطر تقييم مثل CYBENCH. فهذا الإطار صُمم لتقييم قدرات الذكاء الاصطناعي في مهام أمن سيبراني، وهو مثال على محاولة جعل القياس أكثر بنية وقابلية للمقارنة. لكنه ليس إعلانًا بأن OpenAI هزمت Claude، ولا العكس.[1]
ما الذي ينبغي أن تقارنه فرق الأمن؟
حدود المهمة
قبل اختيار أداة أو نموذج، يجب تحديد الاستخدام بدقة: هل المطلوب تصنيف ثغرات؟ مراجعة شيفرة؟ دعم الاستجابة للحوادث؟ حل تحديات تدريبية؟ أم الاقتراب من اختبار الاستغلال؟ كلما اقترب الاستخدام من سلسلة الهجوم، أصبحت الحوكمة والقيود والرقابة أكثر أهمية، خصوصًا مع تحذير Anthropic من أن الذكاء الاصطناعي قد يسهّل أتمتة استغلال الثغرات الأساسية.[3]
قابلية النتائج للتكرار
إعلان شركة، أو مقال فريق أحمر، أو معيار أكاديمي، أو تجربة داخلية: كلها أدلة مفيدة، لكنها ليست من النوع نفسه. عند الشراء أو النشر، يجب طلب نتائج قابلة للتكرار، وأمثلة واضحة على حالات الفشل، واختبارات تشبه بيئة المؤسسة نفسها. وجود أطر مثل CYBENCH يذكّر بأن القياس المنظم أهم من الانطباعات العامة.[1]
ضبط الوصول
الخطر لا يأتي من المخرجات فقط، بل من هوية المستخدم وسياق الاستخدام والأدوات المتاحة له. إدراج CRN لمبادرة Trusted Access for Cyber في سياق المنافسة يبين أن ضبط الوصول أصبح جزءًا من استراتيجية نشر قدرات الذكاء الاصطناعي السيبراني، لا تفصيلًا إداريًا ثانويًا.[2]
التعامل مع إساءة الاستخدام
قضية المستخدم الذي حظرته Anthropic بعد استخدام Claude لتطوير برمجيات خبيثة تجعل رصد الإساءة، والتدقيق، وآليات التعليق أو الحظر عناصر أساسية في أي نشر مسؤول لهذه الأدوات.[3] إذا كان المورد يستطيع عرض القوة التقنية فقط، لكنه لا يشرح كيف يرصد الاستخدام الخطر ويتعامل معه، فالمخاطر تكون غالبًا أقل تقديرًا مما ينبغي.
الخلاصة العملية
لا يوجد حتى الآن فائز موثوق في سباق OpenAI وClaude للأمن السيبراني. ما نعرفه من المصادر العامة هو أن Anthropic/Claude وضعت مسابقات الأمن، وأتمتة استغلال الثغرات، وحوكمة إساءة الاستخدام في قلب النقاش؛ وأن OpenAI تظهر في التقارير ضمن منافسة موازية حول اكتشاف الثغرات والوصول الموثوق إلى القدرات السيبرانية المتقدمة.[2][
3]
لذلك، السؤال الأذكى لفرق الأمن ليس: أي اسم يتصدر العناوين؟ بل: هل يمكن التحقق من القدرة؟ هل الوصول مضبوط؟ هل الفائدة الدفاعية أكبر من خطر الإساءة؟ وهل توجد مراقبة وتدقيق مستمران بعد النشر؟[1][
2][
3]




