للوهلة الأولى، تبدو خطوة OpenAI مربكة: سام ألتمان انتقد Anthropic لأنها لم تفتح نموذجها الأمني Mythos إلا لفئة محدودة، وذكرت India Today أنه وصف ذلك بأنه نوع من «التسويق القائم على الخوف» [11]. ثم أعلنت OpenAI لاحقاً أن GPT-5.5-Cyber، وهو نموذج مخصص للأمن السيبراني، سيُتاح أولاً لـ«مدافعين سيبرانيين حرجين» وليس لكل المستخدمين [
22][
30].
لكن جوهر المسألة أوسع من سؤال: هل غيّرت OpenAI موقفها؟ السؤال الأدق هو: من ينبغي أن يحصل على نموذج سيبراني قوي، وتحت أي شروط، وبأي سرعة؟ وفق ما هو متاح علناً، حجة OpenAI هي أن هذه الأدوات قد تسرّع الدفاع عن الأنظمة، لكنها قد تمنح أيضاً قدرات نافعة للمهاجمين إذا أُتيحت بلا ضوابط [28][
29].
ما الذي حدث فعلاً؟
بدأ الجدل مع Anthropic، الشركة المنافسة لـOpenAI، عندما وفّرت نموذجها السيبراني Mythos لمستخدمين مختارين فقط. تقارير عدة قالت إن ألتمان انتقد هذا الأسلوب في تقييد الوصول [1][
11].
بعد ذلك، أعلنت OpenAI عن طرح محدود لـGPT-5.5-Cyber. نقلت Business Today وTechloy أن ألتمان كتب على منصة X في 30 أبريل/نيسان 2026 أن الشركة ستبدأ خلال أيام إتاحة النموذج لـ«critical cyber defenders» [22][
30]. وذكرت TechCrunch أن OpenAI تشغّل عملية تقديم طلبات، يوضح فيها الراغبون في الوصول مؤهلاتهم وخطط استخدامهم [
1].
من هنا جاء الاتهام بالتناقض: ليست المشكلة فقط أن OpenAI قيّدت الوصول، بل أنها فعلت ذلك بعد انتقاد منافستها على خطوة مشابهة. The Register ركّزت على هذه النقطة تحديداً، قائلة إن OpenAI تتجه إلى إتاحة GPT-5.5-Cyber لدائرة منتقاة من المدافعين السيبرانيين بعد انتقادها Anthropic على نهج قريب من ذلك [6].
تبرير OpenAI: وصول موثوق قبل الإتاحة الواسعة
المفهوم المركزي في خطاب OpenAI هو «الوصول الموثوق» أو trusted access. بحسب التقارير، قال ألتمان إن الشركة ستعمل مع المنظومة الأوسع والحكومة لتحديد طريقة موثوقة لإتاحة أدوات الأمن السيبراني، بهدف المساعدة السريعة في تأمين الشركات والبنية التحتية [22][
30].
هذا التبرير يرتبط ببرنامج أوسع لدى OpenAI اسمه Trusted Access for Cyber، أو TAC. وتقول الشركة إن هدفه هو فتح الإمكانات الدفاعية للقدرات السيبرانية القوية، مع تقليل خطر إساءة استخدامها [29]. كما قالت OpenAI إنها توسّع TAC ليشمل آلاف المدافعين الأفراد الموثّقين ومئات الفرق المسؤولة عن حماية برمجيات مهمة [
28].
لذلك، لا تبدو إتاحة GPT-5.5-Cyber بشكل محدود خطوة معزولة تماماً، بل امتداداً لنهج تقول OpenAI إنها تتبعه: كلما أصبحت القدرات السيبرانية أقوى، تُمنح أولاً لمدافعين تم التحقق منهم، ثم تُدار الإتاحة تدريجياً [28][
29].
لماذا تختلف نماذج الأمن السيبراني عن روبوتات الدردشة العادية؟
في الأمن السيبراني، الأداة نفسها قد تكون درعاً أو سلاحاً، بحسب من يستخدمها وكيف. ذكرت TechCrunch أن GPT-5.5-Cyber يستطيع أداء مهام مثل اختبار الاختراق، وتحديد الثغرات، واستغلالها [1]. كما ذكرت Datagrom أن الأداة قادرة على الهندسة العكسية للبرمجيات الخبيثة [
14].
بالنسبة إلى فرق الأمن، يمكن لهذه القدرات أن تساعد في العثور على الثغرات وإصلاحها بسرعة أكبر. لكنها، إذا وصلت إلى مستخدم غير مخوّل أو جهة خبيثة، قد تساعد أيضاً في تحسين الهجمات. OpenAI نفسها تقول إن الأمن السيبراني من المجالات التي يمكن أن يقوّي فيها تقدم الذكاء الاصطناعي المنظومة ككل، لكنه قد يخلق مخاطر جديدة أيضاً [29].
لهذا السبب، يمكن فهم الوصول المحدود هنا كأداة لإدارة الخطر، لا كقرار تجاري فقط. كلما اقترب النموذج من مهام مثل اختبار الاختراق وتحليل الاستغلالات، زادت حساسية فتحه للجميع دفعة واحدة [1][
29].
هل كان ألتمان ينتقد التقييد نفسه أم طريقة تسويقه؟
هنا يجب التوقف عند حدود ما نعرفه. المصادر العامة لا تكشف ما دار داخل OpenAI، ولا تتيح الجزم بما إذا كان ألتمان غيّر رأيه، أو كان يميّز بين نوعين من التقييد.
قراءة متسامحة لموقفه تقول إن انتقاده لم يكن موجهاً إلى مبدأ التحقق من المستخدمين بحد ذاته، بل إلى طريقة Anthropic في تقديم Mythos وتسويق محدودية الوصول إليه. عبارة «التسويق القائم على الخوف» التي نقلتها India Today يمكن أن تدعم هذا التفسير [11].
لكن حتى لو قبلنا هذا التفسير، تبقى النتيجة العملية واضحة: OpenAI اختارت أيضاً مساراً لا يفتح النموذج للجميع. فهي قالت إن GPT-5.5-Cyber سيذهب أولاً إلى «critical cyber defenders»، وذكرت TechCrunch أن طلب الوصول يتطلب تقديم معلومات عن المؤهلات والاستخدام المخطط [1][
22].
لذلك، الانتقاد الموجّه إلى OpenAI لا يعني بالضرورة أن منطقها الأمني غير صحيح. الاعتراض الأقوى هو على الاتساق في الرسالة: كيف تنتقد شركة منافساً بسبب تقييد الوصول، ثم تتبنى بنية قريبة من ذلك عندما تطلق نموذجاً مشابهاً؟
هل سياسة OpenAI وAnthropic متطابقتان؟
ليس من الدقيق القول إن السياستين متطابقتان بالكامل. ما هو منشور لا يثبت أن معايير الفحص، أو القيود التقنية، أو آليات المراقبة، أو نطاق الاستخدام المسموح به واحدة لدى الشركتين.
لكن من الخارج، تبدو البنية العامة متقاربة: نموذج سيبراني قوي لا يُفتح للجمهور مباشرة، بل يُتاح أولاً لمستخدمين مختارين أو موثّقين [1][
6][
22].
الفارق الذي تؤكد عليه OpenAI هو أنها تضع ذلك داخل إطار مؤسسي اسمه TAC، وتقول إنه موجه إلى مدافعين أفراد موثّقين وفرق تحمي برمجيات مهمة [28]. من ثم، التعبير الأدق هو أن الشركتين اقتربتا من نموذج «المستخدمين الموثوقين أولاً»، لا أن كل تفاصيل سياساتهما متطابقة [
1][
6].
الخلاصة: مبرر أمني مفهوم، ورسالة يصعب الدفاع عنها
بحسب المعلومات المتاحة، السبب المباشر لتقييد GPT-5.5-Cyber هو خطر الاستخدام المزدوج. OpenAI تقول إن القدرات السيبرانية المتقدمة يمكن أن تسرّع اكتشاف الثغرات ومعالجتها، لكنها قد تُساء أيضاً، ولذلك تطرح برنامج TAC لمنح الوصول إلى مدافعين موثّقين وتقليل المخاطر [28][
29].
ما لا نعرفه من المصادر العامة هو الدافع الداخلي لألتمان أو تفاصيل النقاشات داخل OpenAI بعد انتقاده Anthropic. ما نعرفه هو أن الشركة انتقدت تقييد Mythos، ثم طرحت GPT-5.5-Cyber بإتاحة محدودة، وقدمت ذلك بوصفه «وصولاً موثوقاً» موجهاً إلى المدافعين أولاً [1][
22][
30].
لهذا، يصعب اختزال القصة في كلمة واحدة مثل «نفاق». من زاوية السلامة، القرار مفهوم لأن أدوات الأمن السيبراني المتقدمة قد تفيد المدافعين والمهاجمين معاً. ومن زاوية التواصل العام، ستظل OpenAI مطالبة بتفسير سبب تشابه ما فعلته مع ما انتقدته قبل ذلك.




