من السهل تحويل الجدل حول GitHub Copilot إلى عنوان صاخب: المطورون يغادرون GitHub. لكن الصورة الأدق أقل درامية وأكثر أهمية. GitHub ما زالت منصة محورية في تطوير البرمجيات؛ فقد وصفتها Business Insider بأنها منصة تطوير برمجيات رائدة استحوذت عليها Microsoft في عام 2018 [14]. لذلك فالسؤال الحقيقي ليس: هل انتهى GitHub؟ بل: هل بدأ المطورون يفقدون الثقة في مقدار التحكم الذي يملكونه داخل المنصة؟
لم يعد Copilot يُناقش فقط كميزة إكمال تلقائي اختيارية داخل محرر الكود. الشكوى الآن أعمق: ظهوره في القضايا، وطلبات السحب، والمراجعات، والتعليقات، وتشغيل الوكلاء داخل المستودعات؛ أي في الأماكن التي يتوقع فيها مالكو المشاريع والمشرفون أن يحددوا هم قواعد العمل [7][
8].
غضب واضح، لا هجرة مثبتة
تدعم التقارير المتاحة وجود غضب حقيقي بين المطورين أكثر مما تدعم رواية خروج جماعي من GitHub.
ذكر The Register أن ميزات الذكاء الاصطناعي التي تبدو صعبة التجنب دفعت بعض المطورين إلى النظر في بدائل لاستضافة الكود، خصوصاً لأن مشرفي المشاريع يريدون وسائل لحظر سلوك Copilot أو تعطيله داخل المستودعات [8]. كما نقل Slashdot، في تلخيصه للجدل نفسه، ادعاءً بأن انتقال GitHub من كيان تابع مميز إلى جزء من مجموعة CoreAI داخل Microsoft ساعد في دفع بعض أفراد مجتمع المصدر المفتوح من مجرد الشكوى من Copilot إلى التفكير في الابتعاد فعلياً عن GitHub [
1].
هذه إشارات إنذار، لكنها لا تساوي دليلاً على انهيار واسع في موقع GitHub. لا تعرض المصادر هنا أرقام انتقال جماعي، أو بيانات فقدان عملاء مؤسسيين، أو أدلة على مستوى المستودعات تثبت أن مكانة GitHub تراجعت جوهرياً. الاستنتاج الأكثر حذراً هو أن المطورين يعيدون حساب مقدار الثقة غير المشروطة التي يمنحونها لـ GitHub بينما تدفع Microsoft بالذكاء الاصطناعي إلى عمق المنصة [8][
14].
لماذا أصبح Copilot نقطة الاشتعال؟
الاعتراض لا يتعلق فقط بسؤال: هل يساعد Copilot في كتابة كود أفضل؟ بل بسؤال أهم: أين يُسمح له أن يتدخل؟
أفاد The Register بأن أكثر نقاشات GitHub Community شعبية خلال الاثني عشر شهراً السابقة كان طلباً لإتاحة منع Copilot من إنشاء القضايا وطلبات السحب داخل المستودعات [8]. وذكر أيضاً أن ثاني أكثر النقاشات شعبية، بحسب عدد التصويتات المؤيدة، كان تقرير خلل يطالب بحل لعجز المستخدمين عن تعطيل مراجعات الكود التي يجريها Copilot [
8].
هذا الفارق مهم. مساعد يقترح أسطراً داخل محرر خاص شيء، ونظام ذكاء اصطناعي يظهر في طابور القضايا، وفي مسار طلبات السحب، وعلى سطح المراجعات شيء آخر. في الحالة الثانية، يصبح Copilot جزءاً من حوكمة المشروع. بالنسبة للمشرفين، الخوف ليس فقط من جودة الكود الناتج، بل من حق مالكي المشروع في وضع قواعد مجتمعهم البرمجي [8].
عندما تهتز الثقة في الجودة، تصبح الأتمتة المفروضة أثقل
جزء من التوتر يأتي أيضاً من شكاوى حول الاعتمادية. يتضمن نقاش على GitHub Community اتهامات من مستخدمين بأن Copilot داخل VS Code كان غير موثوق وتسبب في ضرر لمشاريعهم [9]. هذا النوع من النقاشات لا يمثل معياراً مستقلاً لقياس جودة Copilot لدى كل المستخدمين أو في كل أنواع العمل. لكنه يفسر لماذا لم يعد بعض المطورين ينظرون إلى نشاط Copilot غير المرغوب فيه كأتمتة harmless أو بسيطة [
9].
عندما تكون الأداة صعبة التجنب، وفي الوقت نفسه يراها بعض المستخدمين غير موثوقة، ينتقل النقاش من الإنتاجية إلى الموافقة والتحكم.
الوكلاء يجعلون الانقطاع مشكلة تشغيلية
توضح صفحة الحالة الخاصة بـ GitHub لماذا ترفع مهام الوكلاء الذكية مستوى المخاطر. في 22 أبريل/نيسان 2026، بين 18:49 و19:32 بتوقيت UTC، فشلت جلسات Copilot Cloud Agent الخاصة بوكيل Agent HQ Codex في البدء من نقاط دخول تشمل إسناد القضايا ونداءات التعليقات عبر @copilot [7]. وقالت GitHub إن 0.5% من إجمالي مهام Copilot Cloud Agent تأثرت، أي نحو 2,000 مهمة فاشلة، بينما لم تتأثر Copilot والجلسات الأخرى الخاصة بالوكلاء [
7].
لم يكن ذلك انهياراً شاملاً لـ GitHub. لكنه مثال واضح على المخاطر التشغيلية عندما تبدأ الفرق في تمرير عمل حقيقي عبر وكلاء ذكاء اصطناعي. إذا كان المطورون يسندون القضايا إلى وكلاء، أو يطلقون العمل عبر تعليقات في طلبات السحب، فإن توفر Copilot نفسه يصبح جزءاً من تخطيط التسليم [7]. كما أقرت صفحة أخبار GitHub بوقوع حوادث توفر حديثة، وقالت إن الانقطاعات تؤثر في العملاء [
10].
استراتيجية Microsoft في الذكاء الاصطناعي تغيّر معادلة الثقة
ذكرت Business Insider أن Microsoft تعيد ترتيب فرقها لتعزيز GitHub وإعادة تشكيله حول البرمجة بالذكاء الاصطناعي والوكلاء، في وقت يواجه فيه GitHub منافسين في أدوات البرمجة بالذكاء الاصطناعي مثل Cursor وClaude Code [14]. من زاوية المنتج، هذا الاتجاه مفهوم: المستودعات، وطلبات السحب، والقضايا، والمراجعات، كلها أماكن طبيعية لزرع مساعدات برمجية ذكية.
لكن ثقافياً، المسألة أكثر حساسية. كثير من المطورين يتعاملون مع GitHub كبنية تحتية مشتركة للبرمجيات، لا كواجهة دعائية لميزة بعينها. عندما تبدو ميزات Copilot صعبة الإيقاف، قد يقرأها المشرفون على أنها أقل شبهاً بأداة إنتاجية اختيارية، وأكثر شبهاً باستخدام Microsoft لموقع GitHub المركزي في توزيع استراتيجيتها للذكاء الاصطناعي [8][
14].
GitHub AI Credits تحول الحدود إلى سؤال ميزانية
تقول GitHub إن Copilot ينتقل إلى فوترة قائمة على الاستخدام، وإن استخدام Copilot سيستهلك GitHub AI Credits ابتداءً من 1 يونيو/حزيران [10]. هذا لا يثبت أن كل فريق سيدفع أكثر. لكنه يعني أن المؤسسات ستحتاج إلى فهم أين يمكن لـ Copilot أن يعمل، ومن يستطيع تشغيله، وكيف يرتبط استخدام الذكاء الاصطناعي بالميزانية [
10].
بالنسبة إلى الفرق التي تشعر أصلاً بالضيق من ظهور Copilot داخل مساحات مشتركة في المستودعات، قد تجعل الفوترة المقاسة هذا الاتجاه يبدو أقل كونه مساعداً اختيارياً، وأكثر كونه طبقة مدفوعة منسوجة داخل سير التطوير [8][
10].
ليست كل قصة استقلال عن المنصات خروجاً من GitHub
هناك موجة أوسع من الشك في الاعتماد على المنصات المركزية، لكنها لا تعني تلقائياً أن GitHub يفقد مطوريه جماعياً. على سبيل المثال، يعرّف ملف David Heinemeier Hansson على HEY بأنه شريك مالك ورئيس التقنية في 37signals ومبتكر Ruby on Rails [26]. وتناقش كتاباته الأخيرة خروج 37signals من السحابة، بما في ذلك وصول عشرين خادماً من طراز Dell R7625 وخطة ترك تعقيد السحابة وراءها [
17][
22].
هذه المنشورات تتعلق بالبنية التحتية السحابية، لا بدليل موثق على خروج من GitHub. الفارق مهم: قد تكون شهية المطورين للاعتماد الأعمى على المنصات المركزية في تراجع، لكن ذلك ليس دليلاً بحد ذاته على أن المطورين يغادرون GitHub بأعداد كبيرة [17][
22].
ماذا ينبغي أن تفعل الفرق الآن؟
الرد العملي ليس الذعر، بل تحويل الافتراضات الضمنية حول GitHub وCopilot إلى سياسات واضحة.
- راجعوا نقاط دخول Copilot. افحصوا أين يستطيع Copilot الظهور أو التصرف: القضايا، وطلبات السحب، ومراجعات الكود، والتعليقات، وإسناد القضايا، ومسارات
@copilot[7][
8].
- ضعوا سياسة على مستوى المستودع. حددوا أي ميزات Copilot مسموحة، وأيها مقيدة أو مرفوضة، خصوصاً في مشاريع المصدر المفتوح والمستودعات الحساسة للامتثال [
8].
- راجعوا GitHub AI Credits قبل 1 يونيو/حزيران. بما أن استخدام Copilot سيستهلك هذه الأرصدة، ينبغي لفرق الهندسة والمنصات والمالية فهم طريقة احتساب الاستخدام [
10].
- خططوا لحوادث وكلاء الذكاء الاصطناعي. إذا كان التسليم يعتمد على إسناد القضايا، أو تعليقات طلبات السحب، أو جلسات الوكلاء، فتعاملوا مع توفر Copilot كاعتماد تشغيلي [
7].
- أبقوا مسارات العمل البشرية واضحة. المستودعات الحرجة تحتاج دائماً إلى مالكين بشريين محددين، وإجراءات إصدار موثقة، وخطط رجوع عندما تفشل الأتمتة.
الخلاصة
رواية أن المطورين يهجرون GitHub جماعياً لا تثبتها الأدلة المتاحة هنا. الاستنتاج الأقوى أن GitHub يواجه أزمة ثقة: Copilot ينتقل إلى مساحات العمل المشتركة داخل المستودعات، وMicrosoft تعيد توجيه GitHub حول البرمجة بالذكاء الاصطناعي والوكلاء، وحوادث الاعتمادية تصبح أكثر حساسية عندما يقوم الوكلاء بعمل فعلي، كما أن فوترة الذكاء الاصطناعي القائمة على الاستخدام في الطريق [7][
8][
10][
14].
GitHub ما زال مهماً جداً. السؤال المفتوح هو: كم من التحكم سيطالب به المطورون مع تحوله إلى منصة ذكاء اصطناعي أكثر حضوراً داخل تفاصيل العمل اليومي؟




