إذا بدا سؤال قيادة OpenAI كأنه استفتاء على سام ألتمان، فهو في الحقيقة أكبر من شخص واحد. الشركة لم تعد مجرد مختبر أبحاث لامع أو صاحبة منتج جماهيري ناجح مثل ChatGPT. إنها تتحول إلى مؤسسة تحاول في الوقت نفسه بناء نماذج أكثر تقدماً، وبيع الذكاء الاصطناعي للشركات، وتشغيل بنية تحتية عالمية، وخوض نقاشات سياسية وتنظيمية حول مستقبل التقنية.
في هذه المرحلة، لا يكفي بريق المؤسس ولا سرعة اتخاذ القرار. المطلوب نظام قيادة يعرف متى يسرّع، ومتى يتوقف، ومن يملك حق الاعتراض عندما تصبح المخاطر أكبر من الوعود.
الحكم المختصر: ألتمان نعم… لكن ليس وحده
قد يكون سام ألتمان ما زال الرئيس التنفيذي المناسب لـ OpenAI. لكن السؤال الأهم ليس: هل ألتمان صاحب رؤية كافية؟ بل: هل لدى OpenAI نظام مؤسسي يتخذ قرارات جيدة حتى عندما يكون ألتمان مخطئاً؟
المعادلة الأقرب للواقع هي: «ألتمان زائد مؤسسة». يبقى ألتمان مهماً في الرؤية، واتجاه البحث، واستراتيجية المنتج. لكن التشغيل العالمي، والبيع للشركات، والرقابة على السلامة، والحوكمة يجب أن تنتقل أكثر إلى أدوار واضحة، وعمليات قابلة للمساءلة، ومجلس إدارة قادر على التدخل عند الحاجة.
لماذا تغيرت وظيفة OpenAI؟
بحسب تقرير، وصف سام ألتمان أولويات OpenAI المقبلة بأنها تسريع البحث العلمي، ورفع الإنتاجية الاقتصادية، وبناء ما سماه «personal AGI»، أي شكل شخصي من الذكاء الاصطناعي العام [1]. وفي الوقت نفسه، أفاد Big Technology بأن ألتمان قال إن البيع للشركات سيكون أولوية رئيسية لـ OpenAI في عام 2026 [
4].
هذا التحول يغيّر معنى القيادة داخل الشركة. بناء نماذج ذكاء اصطناعي متقدمة يحتاج إلى سرعة بحثية وحدس قوي في المنتج. أما إدخال هذه النماذج إلى الشركات، والعلوم، والبنية التحتية، والنقاش العام، فيحتاج أيضاً إلى موثوقية، وامتثال، وتحكم في التكاليف، وثقة العملاء، وقرارات سلامة يمكن تفسيرها لا مجرد إعلانها.
وقد ظهرت ملامح هذا التحول في هيكل القيادة نفسه. في مارس/آذار 2025، أعلنت OpenAI أن مارك تشن تولى دوراً موسعاً بصفته كبير مسؤولي الأبحاث، على أن يدفع التقدم العلمي في القدرات والسلامة، ويربط البحث بتطوير المنتجات على نحو أوثق [19]. وفي الفترة نفسها، اتسع دور مدير العمليات براد لايتكاب ليقود جانباً أكبر من الأعمال والعمليات اليومية، بما في ذلك النشر العالمي، والبنية التحتية، والاستراتيجية، والشراكات، بينما يحصل ألتمان على مساحة أكبر للتركيز على البحث والمنتجات [
20][
25].
أما التوجه إلى العملاء المؤسسيين فحصل على إسناد تنظيمي إضافي. فقد ذكرت TechCrunch في يناير/كانون الثاني 2026، نقلاً عن The Information، أن OpenAI كلفت باريت زوف بقيادة جهود بيع الذكاء الاصطناعي لعملاء الشركات [6].
أربع اختبارات قيادية أمام OpenAI
1. السلامة يجب أن تملك سلطة حقيقية
تعمل OpenAI على تقنيات قد يتجاوز أثرها حدود أي برنامج عادي. لذلك لا يكفي أن نسأل: متى ستصدر الميزة التالية؟ السؤال الأهم: من يراجع المخاطر؟ من يستطيع التصعيد؟ ومن يملك حق إيقاف الإطلاق إذا تعارضت السلامة مع ضغط السوق؟
ربط دور مارك تشن بين القدرات والسلامة يوحي بأن OpenAI تنظر داخلياً إلى هذين المسارين كجزء من مهمة واحدة، لا كملف ثانوي منفصل [19]. لكن من الخارج لا يمكن الجزم بمدى استقلالية هذه العمليات أو قوتها عندما تتعارض مع أهداف النمو والإيرادات.
2. بيع الذكاء الاصطناعي للشركات ليس مثل حماس المستخدمين الأفراد
كلمة Enterprise في سياق شركات التقنية تعني بيع المنتجات والخدمات للشركات والمؤسسات، لا للمستخدم الفرد فقط. وهذا عالم أقل إثارة من عروض النماذج الجديدة، لكنه أكثر صرامة. الشركات لا تشتري الأداء وحده؛ تريد ضمانات حول التوافر، والدعم الفني، وحماية البيانات، والتكامل مع أنظمتها، وضبط التكاليف، واستمرارية الخدمة.
لذلك تبدو مسؤوليات لايتكاب الموسعة منطقية. التقارير تشير إلى أنه سيتولى قيادة الأعمال والعمليات اليومية، إلى جانب النشر العالمي، والبنية التحتية، والاستراتيجية، والشراكات [20][
25]. هذا يفتح الباب لتقسيم عمل أوضح: ألتمان يحدد الاتجاه التقني والاستراتيجي، بينما تجعل الإدارة التشغيلية الشركة أكثر قدرة على التحمل والوفاء بالوعود.
3. الحوكمة ليست تفصيلاً إدارياً
تاريخ OpenAI القريب جعل الحوكمة في قلب القصة. في 17 نوفمبر/تشرين الثاني 2023، أعلنت OpenAI رسمياً مغادرة سام ألتمان منصب الرئيس التنفيذي، وتعيين مديرة التقنية ميرا موراتي رئيسة تنفيذية مؤقتة [13]. وبعد أيام، عاد ألتمان إلى منصبه، وأعلنت الشركة مجلس إدارة أولياً جديداً يضم بريت تايلور رئيساً، ولاري سامرز، وآدم دانجيلو [
12].
هذه الواقعة كشفت أن غموض توازن القوى بين الإدارة ومجلس الإدارة يمكن أن يتحول سريعاً إلى أزمة داخل شركة بهذا الحجم والتأثير. وفي 2025، كتبت Axios أن جهود ألتمان لتأمين مليارات الدولارات لرؤية OpenAI ظلت محاطة بمخاوف مرتبطة بالحوكمة وإشراف الكيان غير الربحي على الشركة [8].
سواء كان المرء مؤيداً لألتمان أو ناقداً له، فإن OpenAI تحتاج إلى نظام لا يكتفي بسرعة القرار، بل يملك أيضاً قدرة موثوقة على المراجعة والضبط.
4. الشرعية العامة أصبحت جزءاً من وظيفة الرئيس التنفيذي
OpenAI لم تعد تخاطب المطورين والمستخدمين والمستثمرين فقط. إنها تتحرك أيضاً في مساحة السياسة العامة. فقد ذكرت Fortune في 2026 أن OpenAI نشرت ورقة بعنوان «Industrial Policy for the Intelligence Age: Ideas to Keep People First»، تضمنت أفكاراً في السياسات الضريبية والصناعية [2].
هذا يعني أن دور الرئيس التنفيذي أصبح أوسع: عليه إقناع الحكومات، والشركات، والباحثين، والجمهور، لا الشركاء التجاريين وحدهم. وهذه الشرعية لا تُبنى فقط بصورة قائد قوي، بل بعمليات مفهومة، وقرارات سلامة متسقة، ومؤسسات يثق حتى المنتقدون بأنها قادرة على تقييد السلطة عند الضرورة.
ما الذي يدعم بقاء ألتمان؟
المصادر المتاحة تظهر أن ألتمان لا يزال يحدد الأجندة الاستراتيجية لـ OpenAI. فهو يتحدث عن تسريع البحث العلمي، وزيادة الإنتاجية الاقتصادية، و«personal AGI» [1]. كما يضع البيع للشركات ضمن أولويات 2026 [
4]. والتغييرات القيادية الأخيرة لا تبدو كإزاحة له، بل كإعادة تركيز لدوره على البحث والمنتجات مع نقل مزيد من التشغيل إلى فريق الإدارة [
20][
25].
لذلك لا يبدو تغيير الرئيس التنفيذي حلاً بديهياً أو ضرورياً الآن. في مرحلة تحتاج فيها OpenAI إلى موازنة البحث، والمنتج، والتمويل، والبنية التحتية، والمنافسة، يبقى ألتمان شخصية استراتيجية مؤثرة.
وما الخطر في نموذج يتمحور حول ألتمان؟
الخطر يأتي من قوته نفسها. كلما ارتبطت الثقة في OpenAI بشخص واحد، أصبح كل قرار خاطئ، أو أزمة حوكمة، أو تبدل سياسي، مشكلة نظامية لا مجرد خطأ إداري.
أحداث نوفمبر/تشرين الثاني 2023 — من إعلان خروجه إلى عودته مع مجلس جديد — أظهرت أن بنية الشركة يمكن أن تتعرض لاختبار قاسٍ عندما تتضارب مراكز القوة [13][
12]. والتقارير اللاحقة عن استمرار أسئلة الحوكمة تعزز هذه النقطة [
8].
المشكلة إذن ليست ألتمان وحده. المشكلة ستكون في نظام يجعله في الوقت نفسه صاحب الرؤية، ومهندس المنتج الأعلى، والوجه السياسي، والحَكَم العملي في قضايا السلامة، ومصدر الثقة المركزي.
النموذج الأفضل: ألتمان داخل مؤسسة قوية
الطريق الأكثر واقعية ليس مساراً معادياً لألتمان. إنه بناء إطار مؤسسي حوله.
عملياً، يعني ذلك:
- أن يبقى ألتمان محورياً في الرؤية، واتجاه البحث، واستراتيجية المنتج.
- أن يتحمل فريق قوي للعمليات والأعمال مسؤولية البيع للشركات، والنشر العالمي، والبنية التحتية، والشراكات، والانضباط التشغيلي.
- أن تحصل فرق البحث والسلامة على صلاحيات واضحة، لا دور استشاري فقط.
- أن يكون مجلس الإدارة مستقلاً بما يكفي لمراجعة قرارات الإدارة فعلياً.
- أن تكون قرارات التسويق التجاري، وموافقات السلامة، والمواقف السياسية قابلة للفصل والفهم والمساءلة.
التعديلات القيادية المعلنة — توسيع أدوار البحث والعمليات، وزيادة التركيز على العملاء المؤسسيين، وإتاحة مساحة أكبر لألتمان في البحث والمنتج — تسير مبدئياً في هذا الاتجاه [19][
20][
25][
6]. لكن هل تكفي؟ هذا ما لا يمكن الحكم عليه من الخارج بثقة كاملة.
ما الذي يجب مراقبته الآن؟
المرحلة المقبلة لن تُقاس بعدد الإعلانات الكبيرة التي يطلقها ألتمان. الأهم هو الإشارات البنيوية:
- هل تملك فرق السلامة حقاً فعلياً في القرار عندما تصطدم مخاطر المنتج بضغط الإيرادات؟
- هل يستطيع التفويض الموسع لبراد لايتكاب أن يجعل OpenAI قابلة للتوسع من دون أن تمر كل عقدة مهمة عبر ألتمان؟
- هل يرافق التوسع في بيع الذكاء الاصطناعي للشركات التزامات قوية حول الخصوصية، والدعم، والتكلفة، والتوافر؟
- هل يستطيع مجلس الإدارة مراقبة الإدارة بجدية، خصوصاً في اللحظات الاستراتيجية الحساسة؟
- هل تبدو مواقف OpenAI السياسية، وأهدافها التجارية، ووعودها في السلامة متسقة لا متنافرة؟
الخلاصة
OpenAI لا تحتاج في مرحلتها المقبلة إلى قطيعة سهلة مع سام ألتمان. لكنها تحتاج إلى نظام قيادة أكبر من سام ألتمان.
يمكن أن يبقى ألتمان نقطة قوة إذا قُيّدت مركزيته بمؤسسة قوية: إدارة تشغيلية ناضجة، وحوكمة مستقلة، وعمليات سلامة ملزمة. من دون هذه الحدود، تتحول مركزيته إلى مخاطرة. ومعها، قد تبقى ميزته الأكبر.




