السؤال الشائع هو: هل لدى هونغ كونغ قانون خاص للذكاء الاصطناعي؟ الإجابة الأدق في 2025 هي: ليس هناك قانون واحد قائم بذاته يغطي كل ما يتعلق بالذكاء الاصطناعي، لكن استخدام AI ليس مساحة فارغة بلا ضوابط. عملياً، يتكوّن المشهد من قوانين قائمة، وعلى رأسها قواعد الخصوصية، إلى جانب إرشادات حكومية للذكاء الاصطناعي التوليدي وتوجيهات صادرة عن جهة حماية البيانات.
بالنسبة للشركات، الخلاصة ليست انتظار صدور «قانون AI» شامل، بل البدء فوراً في ضبط الأدوات، والبيانات التي تُدخل إلى الأنظمة، والمخرجات التي يُسمح باستخدامها، وصلاحيات الموظفين، ومخاطر البيانات الشخصية.
الخلاصة السريعة: لا قانون واحد، لكن الإطار العملي موجود
بحسب عرض قانوني عام منشور لعام 2025، لا تملك هونغ كونغ حالياً إطاراً قانونياً مستقلاً ومخصصاً تحديداً للذكاء الاصطناعي أو البيانات الضخمة أو تعلّم الآلة.[4]
لكن في 15 أبريل 2025، أصدر مكتب السياسة الرقمية في حكومة هونغ كونغ، ويُشار إليه هنا اختصاراً بـ DPO، وثيقة «الإرشادات التقنية والتطبيقية للذكاء الاصطناعي التوليدي في هونغ كونغ».[5] ووفقاً للمعلومات الحكومية، تغطي هذه الإرشادات نطاق تطبيقات الذكاء الاصطناعي التوليدي، وقيودها، ومخاطرها المحتملة، ومبادئ الحوكمة، كما تقدم توجيهاً عملياً للمطورين، ومقدمي الخدمات، والمستخدمين.[
8]
أما في جانب الخصوصية، فقد نشر مكتب مفوض الخصوصية للبيانات الشخصية، المعروف اختصاراً بـ PCPD، في مارس 2025 «قائمة إرشادية لاستخدام الموظفين للذكاء الاصطناعي التوليدي»، بهدف مساعدة المؤسسات على إعداد سياسات أو إرشادات داخلية لاستخدام الموظفين لـ GenAI في العمل، مع الامتثال لمتطلبات مرسوم البيانات الشخصية (الخصوصية) في هونغ كونغ، أو PDPO.[9]
خريطة الوثائق الرئيسية في هونغ كونغ
| الوثيقة أو الإطار | لمن تهم؟ | ما الذي تعنيه عملياً؟ |
|---|---|---|
| الإرشادات التقنية والتطبيقية للذكاء الاصطناعي التوليدي في هونغ كونغ | مطورو التقنية، ومقدمو الخدمات، والمستخدمون.[ | تغطي نطاق الاستخدام، والقيود، والمخاطر المحتملة، ومبادئ الحوكمة في تطبيقات GenAI.[ |
| سياسات المؤسسات الواردة في إرشادات DPO | المؤسسات التي تعتمد خدمات الذكاء الاصطناعي التوليدي.[ | يمكن أن تحدد الأدوات المسموح بها، وأغراض الاستخدام، ونطاق تطبيق السياسة، وأنواع وكميات البيانات التي يجوز إدخالها، وطريقة استخدام المخرجات وتخزينها.[ |
| قائمة PCPD لاستخدام الموظفين للذكاء الاصطناعي التوليدي | المؤسسات التي يستخدم موظفوها GenAI في العمل.[ | تساعد على وضع سياسة داخلية لاستخدام الموظفين، مع مراعاة متطلبات PDPO.[ |
| إرشادات PCPD الأوسع بشأن الذكاء الاصطناعي والخصوصية | المؤسسات التي تشتري أو تستخدم أو تطور أنظمة AI تنطوي على بيانات شخصية.[ | تشمل توجيهات عملية ومبادئ أخلاقية وقائمة تقييم ذاتي لمساعدة المؤسسات على الامتثال لمرسوم البيانات الشخصية (الخصوصية) Cap. 486 عند تطوير واستخدام AI.[ |
لماذا لا يجوز للشركات أن تنتظر قانوناً خاصاً؟
من زاوية الامتثال، هناك فرق كبير بين القول إن هونغ كونغ لا تملك قانوناً موحداً خاصاً بالذكاء الاصطناعي، والقول إن استخدام الذكاء الاصطناعي بلا مسؤوليات. العبارة الأولى صحيحة بحسب المصادر المتاحة لعام 2025؛ أما الثانية فمضللة.
إرشادات DPO تتعامل مع مخاطر عملية واضحة في الذكاء الاصطناعي التوليدي، مثل تسرب البيانات، وتحيز النماذج، والأخطاء التي قد تظهر في المخرجات.[8] وهذا يعني أن المؤسسات التي تسمح للموظفين باستخدام أدوات GenAI بلا قواعد مكتوبة تفتح الباب لمخاطر تقنية وقانونية وسمعة مؤسسية.
وتصبح المسألة أكثر حساسية عندما تدخل البيانات الشخصية في الاستخدام. فقد ربطت PCPD صراحةً بين استخدام الموظفين للذكاء الاصطناعي التوليدي في العمل، والحاجة إلى سياسات داخلية، والامتثال لمتطلبات PDPO.[9]
ما الذي يجب أن تغطيه سياسة GenAI داخل المؤسسة؟
تشير إرشادات DPO إلى أن المؤسسات التي تعتمد خدمات الذكاء الاصطناعي التوليدي ينبغي أن تضع سياسات أو إرشادات داخلية تغطي، من بين أمور أخرى، الأدوات المسموح بها، والاستخدامات المسموح بها، ونطاق تطبيق السياسة، وأنواع وكميات المعلومات التي يجوز إدخالها، والاستخدام المسموح لمخرجات AI، وطريقة تخزين هذه المخرجات.[1]
عملياً، يمكن لأي شركة أو مدرسة أو جامعة أو جمعية أو فريق عمل يستخدم GenAI أن يبدأ من هذه النقاط:
- الأدوات المسموح بها: تحديد ما إذا كان يُسمح باستخدام أدوات عامة متاحة للجمهور أو أدوات داخلية مطورة داخل المؤسسة.[
1]
- أغراض الاستخدام: بيان ما إذا كان GenAI مسموحاً به في الصياغة، أو تلخيص المعلومات، أو إنشاء نصوص أو محتوى صوتي أو بصري.[
1]
- نطاق السياسة: توضيح الأقسام، والوظائف، وسير العمل، والحالات التي تنطبق عليها السياسة.[
1]
- أنواع وكميات البيانات المدخلة: تحديد ما يمكن إدخاله إلى أدوات GenAI وما لا يجوز إدخاله، مع ضبط حجم المعلومات المدخلة.[
1]
- استخدام المخرجات: تحديد متى يمكن استخدام النصوص أو الصور أو الملخصات المنتجة بالذكاء الاصطناعي، ومتى تكون المراجعة البشرية ضرورية قبل النشر أو الإرسال.[
1]
- تخزين المخرجات: وضع قواعد لحفظ مخرجات AI، ونسخها إلى أنظمة أخرى، وفترات الاحتفاظ بها.[
1]
- صلاحيات الموظفين والأجهزة: تشير PCPD إلى أن سياسة AI ينبغي أن تحدد أنواع الأجهزة التي يُسمح للموظفين باستخدامها للوصول إلى أدوات GenAI، وفئات الموظفين المسموح لهم بذلك.[
9]
- إدارة المخاطر: إدخال مخاطر تسرب البيانات، وتحيز النماذج، والأخطاء ضمن عمليات التقييم والمراجعة، لأنها من المخاطر التقنية التي تناولتها إرشادات DPO.[
8]
الخصوصية وPDPO: مركز الثقل في الامتثال
في هونغ كونغ، يصبح استخدام AI أو GenAI أكثر حساسية عندما يتضمن بيانات شخصية. فـ PCPD أوضحت أن قائمتها الإرشادية لاستخدام الموظفين للذكاء الاصطناعي التوليدي تهدف إلى مساعدة المؤسسات على إعداد سياسات داخلية لاستخدام GenAI في العمل، مع الامتثال لمتطلبات PDPO.[9]
كما أن إرشادات PCPD الأوسع بشأن الذكاء الاصطناعي تشمل توجيهات عملية، ومبادئ أخلاقية، وقائمة تقييم ذاتي لمساعدة المؤسسات على الامتثال لمرسوم البيانات الشخصية (الخصوصية) Cap. 486 عند تطوير واستخدام الذكاء الاصطناعي.[10]
لذلك، لا ينبغي أن تقتصر سياسة الذكاء الاصطناعي على سؤال بسيط مثل: هل نسمح بهذه الأداة أم لا؟ السؤال الأهم هو: من أين تأتي البيانات؟ ما الذي يدخل إلى النظام؟ من يملك حق الوصول؟ كيف تُستخدم المخرجات؟ أين تُخزن؟ ومن يراجعها قبل الاعتماد عليها؟
ماذا يعني ذلك للموظفين والمستخدمين؟
إرشادات DPO لا تخاطب المطورين ومقدمي الخدمات فقط، بل تشمل المستخدمين أيضاً.[8] لذلك، إذا كنت تستخدم GenAI في العمل، فالقاعدة العملية الأولى هي الرجوع إلى سياسة المؤسسة قبل إدخال مستندات داخلية أو بيانات عملاء أو معلومات موظفين في أي أداة خارجية.
ولا ينبغي التعامل مع مخرجات الذكاء الاصطناعي على أنها صحيحة تلقائياً. فالمعلومات الحكومية نفسها تشير إلى مخاطر مثل تحيز النماذج والأخطاء التي يجب التعامل معها.[8] وكلما كان المحتوى موجهاً للنشر، أو متعلقاً بعميل، أو متصلاً ببيانات شخصية، أو داخلاً في مجال حساس، زادت أهمية المراجعة البشرية.
أسئلة شائعة
هل لدى هونغ كونغ قانون خاص للذكاء الاصطناعي؟
حتى 2025، لا توجد في هونغ كونغ منظومة قانونية مستقلة واحدة مخصصة تحديداً للذكاء الاصطناعي أو البيانات الضخمة أو تعلّم الآلة.[4] لكن هناك إرشادات حكومية للذكاء الاصطناعي التوليدي، وتوجيهات خصوصية من PCPD، وقوانين قائمة مثل PDPO يجب مراعاتها عند استخدام AI.[
5][
9][
10]
ما موضوع إرشادات DPO لعام 2025؟
أصدر مكتب السياسة الرقمية في 15 أبريل 2025 الإرشادات التقنية والتطبيقية للذكاء الاصطناعي التوليدي في هونغ كونغ.[5] وتغطي الوثيقة نطاق التطبيقات، والقيود، والمخاطر المحتملة، ومبادئ الحوكمة، وتقدم توجيهاً عملياً للمطورين ومقدمي الخدمات والمستخدمين.[
8]
هل تحتاج الشركات إلى سياسة داخلية لاستخدام GenAI؟
تشير PCPD إلى أن قائمتها الإرشادية تساعد المؤسسات على إعداد سياسات أو إرشادات داخلية لاستخدام الموظفين للذكاء الاصطناعي التوليدي في العمل مع الامتثال لـ PDPO.[9] كما تذكر إرشادات DPO أن سياسات المؤسسات يمكن أن تغطي الأدوات المسموح بها، والاستخدامات المسموح بها، وأنواع البيانات المدخلة، واستخدام المخرجات وتخزينها.[
1]
هل يكفي منع إدخال البيانات الشخصية فقط؟
منع إدخال البيانات الشخصية قد يكون خطوة مهمة، لكنه لا يكفي وحده لإدارة المخاطر. فإرشادات DPO تتناول أيضاً مخاطر مثل تسرب البيانات، وتحيز النماذج، والأخطاء.[8] لذلك تحتاج المؤسسة إلى سياسة أوسع تشمل الصلاحيات، وأنواع الاستخدام، وتخزين المخرجات، والمراجعة البشرية.
الخلاصة
الصياغة الأدق لوضع هونغ كونغ في 2025 هي: لا يوجد حتى الآن قانون واحد شامل ومخصص للذكاء الاصطناعي، لكن توجد إرشادات حكومية للذكاء الاصطناعي التوليدي، وتوجيهات خصوصية من PCPD، ومتطلبات قائمة بموجب PDPO يجب التعامل معها معاً.[4][
5][
9][
10]
إذا كانت المؤسسة تستخدم GenAI أو تستعد لتبنيه، فالخطوة العملية الأولى هي إعداد سياسة قابلة للتنفيذ: تحديد الأدوات، وأغراض الاستخدام، وحدود إدخال البيانات، وطريقة استخدام المخرجات وتخزينها، وصلاحيات الموظفين والأجهزة، وإدخال الخصوصية وتسرب البيانات والتحيز والأخطاء في منظومة إدارة المخاطر.[1][
8][
9]
هذه قراءة معلوماتية مبنية على المصادر العامة المشار إليها، ولا تُعد استشارة قانونية. عند التعامل مع استخدامات عالية المخاطر، أو بيانات شخصية، أو قطاعات خاضعة لتنظيم خاص، ينبغي مراجعة الوثائق الرسمية وطلب مشورة مهنية مناسبة.




