studioglobal
الأكثر رواجًا في الاكتشاف
الإجاباتمنشور6 المصادر

هل لدى هونغ كونغ قانون للذكاء الاصطناعي؟ دليل 2025 للشركات حول GenAI والخصوصية

حتى 2025، لا توجد في هونغ كونغ منظومة قانونية مستقلة واحدة مخصصة للذكاء الاصطناعي أو البيانات الضخمة أو تعلّم الآلة، لكن ذلك لا يعني غياب الإرشادات والتنظيمات ذات الصلة.[4][5][9] أصدر مكتب السياسة الرقمية في 15 أبريل 2025 إرشادات تقنية وتطبيقية للذكاء الاصطناعي التوليدي تغطي نطاق الاستخدام والقيود والمخاطر ومبادئ ال...

17K0
香港城市背景中的 AI 晶片、法律文件與私隱保護意象
香港 AI 規管現況:未有 AI 專法,但已有 GenAI 官方指引同私隱要求AI 生成的編輯配圖,用於說明香港 AI 規管、生成式 AI 指引與私隱合規主題。
موجّه الذكاء الاصطناعي

Create a landscape editorial hero image for this Studio Global article: 香港 AI 規管現況:未有 AI 專法,但已有 GenAI 官方指引同私隱要求. Article summary: 按 2025 年公開法律概覽,香港未有一部單一、專門規管 AI/大數據/機器學習的法例;但政府和私隱監管機構已用 GenAI 指引、PDPO 合規要求和內部政策清單去處理實務風險。[4][5][9]. Topic tags: ai, ai regulation, generative ai, hong kong, data privacy. Reference image context from search candidates: Reference image 1: visual subject "目前,香港透過現行的不同法規對AI進行規管。各個決策和監管機構,例如數字政策辦公室、PCPD、證監會和金管局,亦先後發出了與AI有關的指引、通函或文件。" source context "AI技術應用有法可依 - 財經 - 香港文匯網" Reference image 2: visual subject "A man in a dark suit and white shirt stands indoors, engaged in conversation, with other people partially visible behind him." Style: premium digital editorial illustration, source-backed research mood, clean composition, high detail, modern web publication hero. Use reference image context only for broad subject, composition, and topical grounding; do not co

openai.com

السؤال الشائع هو: هل لدى هونغ كونغ قانون خاص للذكاء الاصطناعي؟ الإجابة الأدق في 2025 هي: ليس هناك قانون واحد قائم بذاته يغطي كل ما يتعلق بالذكاء الاصطناعي، لكن استخدام AI ليس مساحة فارغة بلا ضوابط. عملياً، يتكوّن المشهد من قوانين قائمة، وعلى رأسها قواعد الخصوصية، إلى جانب إرشادات حكومية للذكاء الاصطناعي التوليدي وتوجيهات صادرة عن جهة حماية البيانات.

بالنسبة للشركات، الخلاصة ليست انتظار صدور «قانون AI» شامل، بل البدء فوراً في ضبط الأدوات، والبيانات التي تُدخل إلى الأنظمة، والمخرجات التي يُسمح باستخدامها، وصلاحيات الموظفين، ومخاطر البيانات الشخصية.

الخلاصة السريعة: لا قانون واحد، لكن الإطار العملي موجود

بحسب عرض قانوني عام منشور لعام 2025، لا تملك هونغ كونغ حالياً إطاراً قانونياً مستقلاً ومخصصاً تحديداً للذكاء الاصطناعي أو البيانات الضخمة أو تعلّم الآلة.[4]

لكن في 15 أبريل 2025، أصدر مكتب السياسة الرقمية في حكومة هونغ كونغ، ويُشار إليه هنا اختصاراً بـ DPO، وثيقة «الإرشادات التقنية والتطبيقية للذكاء الاصطناعي التوليدي في هونغ كونغ».[5] ووفقاً للمعلومات الحكومية، تغطي هذه الإرشادات نطاق تطبيقات الذكاء الاصطناعي التوليدي، وقيودها، ومخاطرها المحتملة، ومبادئ الحوكمة، كما تقدم توجيهاً عملياً للمطورين، ومقدمي الخدمات، والمستخدمين.[8]

أما في جانب الخصوصية، فقد نشر مكتب مفوض الخصوصية للبيانات الشخصية، المعروف اختصاراً بـ PCPD، في مارس 2025 «قائمة إرشادية لاستخدام الموظفين للذكاء الاصطناعي التوليدي»، بهدف مساعدة المؤسسات على إعداد سياسات أو إرشادات داخلية لاستخدام الموظفين لـ GenAI في العمل، مع الامتثال لمتطلبات مرسوم البيانات الشخصية (الخصوصية) في هونغ كونغ، أو PDPO.[9]

خريطة الوثائق الرئيسية في هونغ كونغ

الوثيقة أو الإطارلمن تهم؟ما الذي تعنيه عملياً؟
الإرشادات التقنية والتطبيقية للذكاء الاصطناعي التوليدي في هونغ كونغمطورو التقنية، ومقدمو الخدمات، والمستخدمون.[8]تغطي نطاق الاستخدام، والقيود، والمخاطر المحتملة، ومبادئ الحوكمة في تطبيقات GenAI.[8]
سياسات المؤسسات الواردة في إرشادات DPOالمؤسسات التي تعتمد خدمات الذكاء الاصطناعي التوليدي.[1]يمكن أن تحدد الأدوات المسموح بها، وأغراض الاستخدام، ونطاق تطبيق السياسة، وأنواع وكميات البيانات التي يجوز إدخالها، وطريقة استخدام المخرجات وتخزينها.[1]
قائمة PCPD لاستخدام الموظفين للذكاء الاصطناعي التوليديالمؤسسات التي يستخدم موظفوها GenAI في العمل.[9]تساعد على وضع سياسة داخلية لاستخدام الموظفين، مع مراعاة متطلبات PDPO.[9]
إرشادات PCPD الأوسع بشأن الذكاء الاصطناعي والخصوصيةالمؤسسات التي تشتري أو تستخدم أو تطور أنظمة AI تنطوي على بيانات شخصية.[10]تشمل توجيهات عملية ومبادئ أخلاقية وقائمة تقييم ذاتي لمساعدة المؤسسات على الامتثال لمرسوم البيانات الشخصية (الخصوصية) Cap. 486 عند تطوير واستخدام AI.[10]

لماذا لا يجوز للشركات أن تنتظر قانوناً خاصاً؟

من زاوية الامتثال، هناك فرق كبير بين القول إن هونغ كونغ لا تملك قانوناً موحداً خاصاً بالذكاء الاصطناعي، والقول إن استخدام الذكاء الاصطناعي بلا مسؤوليات. العبارة الأولى صحيحة بحسب المصادر المتاحة لعام 2025؛ أما الثانية فمضللة.

إرشادات DPO تتعامل مع مخاطر عملية واضحة في الذكاء الاصطناعي التوليدي، مثل تسرب البيانات، وتحيز النماذج، والأخطاء التي قد تظهر في المخرجات.[8] وهذا يعني أن المؤسسات التي تسمح للموظفين باستخدام أدوات GenAI بلا قواعد مكتوبة تفتح الباب لمخاطر تقنية وقانونية وسمعة مؤسسية.

وتصبح المسألة أكثر حساسية عندما تدخل البيانات الشخصية في الاستخدام. فقد ربطت PCPD صراحةً بين استخدام الموظفين للذكاء الاصطناعي التوليدي في العمل، والحاجة إلى سياسات داخلية، والامتثال لمتطلبات PDPO.[9]

ما الذي يجب أن تغطيه سياسة GenAI داخل المؤسسة؟

تشير إرشادات DPO إلى أن المؤسسات التي تعتمد خدمات الذكاء الاصطناعي التوليدي ينبغي أن تضع سياسات أو إرشادات داخلية تغطي، من بين أمور أخرى، الأدوات المسموح بها، والاستخدامات المسموح بها، ونطاق تطبيق السياسة، وأنواع وكميات المعلومات التي يجوز إدخالها، والاستخدام المسموح لمخرجات AI، وطريقة تخزين هذه المخرجات.[1]

عملياً، يمكن لأي شركة أو مدرسة أو جامعة أو جمعية أو فريق عمل يستخدم GenAI أن يبدأ من هذه النقاط:

  1. الأدوات المسموح بها: تحديد ما إذا كان يُسمح باستخدام أدوات عامة متاحة للجمهور أو أدوات داخلية مطورة داخل المؤسسة.[1]
  2. أغراض الاستخدام: بيان ما إذا كان GenAI مسموحاً به في الصياغة، أو تلخيص المعلومات، أو إنشاء نصوص أو محتوى صوتي أو بصري.[1]
  3. نطاق السياسة: توضيح الأقسام، والوظائف، وسير العمل، والحالات التي تنطبق عليها السياسة.[1]
  4. أنواع وكميات البيانات المدخلة: تحديد ما يمكن إدخاله إلى أدوات GenAI وما لا يجوز إدخاله، مع ضبط حجم المعلومات المدخلة.[1]
  5. استخدام المخرجات: تحديد متى يمكن استخدام النصوص أو الصور أو الملخصات المنتجة بالذكاء الاصطناعي، ومتى تكون المراجعة البشرية ضرورية قبل النشر أو الإرسال.[1]
  6. تخزين المخرجات: وضع قواعد لحفظ مخرجات AI، ونسخها إلى أنظمة أخرى، وفترات الاحتفاظ بها.[1]
  7. صلاحيات الموظفين والأجهزة: تشير PCPD إلى أن سياسة AI ينبغي أن تحدد أنواع الأجهزة التي يُسمح للموظفين باستخدامها للوصول إلى أدوات GenAI، وفئات الموظفين المسموح لهم بذلك.[9]
  8. إدارة المخاطر: إدخال مخاطر تسرب البيانات، وتحيز النماذج، والأخطاء ضمن عمليات التقييم والمراجعة، لأنها من المخاطر التقنية التي تناولتها إرشادات DPO.[8]

الخصوصية وPDPO: مركز الثقل في الامتثال

في هونغ كونغ، يصبح استخدام AI أو GenAI أكثر حساسية عندما يتضمن بيانات شخصية. فـ PCPD أوضحت أن قائمتها الإرشادية لاستخدام الموظفين للذكاء الاصطناعي التوليدي تهدف إلى مساعدة المؤسسات على إعداد سياسات داخلية لاستخدام GenAI في العمل، مع الامتثال لمتطلبات PDPO.[9]

كما أن إرشادات PCPD الأوسع بشأن الذكاء الاصطناعي تشمل توجيهات عملية، ومبادئ أخلاقية، وقائمة تقييم ذاتي لمساعدة المؤسسات على الامتثال لمرسوم البيانات الشخصية (الخصوصية) Cap. 486 عند تطوير واستخدام الذكاء الاصطناعي.[10]

لذلك، لا ينبغي أن تقتصر سياسة الذكاء الاصطناعي على سؤال بسيط مثل: هل نسمح بهذه الأداة أم لا؟ السؤال الأهم هو: من أين تأتي البيانات؟ ما الذي يدخل إلى النظام؟ من يملك حق الوصول؟ كيف تُستخدم المخرجات؟ أين تُخزن؟ ومن يراجعها قبل الاعتماد عليها؟

ماذا يعني ذلك للموظفين والمستخدمين؟

إرشادات DPO لا تخاطب المطورين ومقدمي الخدمات فقط، بل تشمل المستخدمين أيضاً.[8] لذلك، إذا كنت تستخدم GenAI في العمل، فالقاعدة العملية الأولى هي الرجوع إلى سياسة المؤسسة قبل إدخال مستندات داخلية أو بيانات عملاء أو معلومات موظفين في أي أداة خارجية.

ولا ينبغي التعامل مع مخرجات الذكاء الاصطناعي على أنها صحيحة تلقائياً. فالمعلومات الحكومية نفسها تشير إلى مخاطر مثل تحيز النماذج والأخطاء التي يجب التعامل معها.[8] وكلما كان المحتوى موجهاً للنشر، أو متعلقاً بعميل، أو متصلاً ببيانات شخصية، أو داخلاً في مجال حساس، زادت أهمية المراجعة البشرية.

أسئلة شائعة

هل لدى هونغ كونغ قانون خاص للذكاء الاصطناعي؟

حتى 2025، لا توجد في هونغ كونغ منظومة قانونية مستقلة واحدة مخصصة تحديداً للذكاء الاصطناعي أو البيانات الضخمة أو تعلّم الآلة.[4] لكن هناك إرشادات حكومية للذكاء الاصطناعي التوليدي، وتوجيهات خصوصية من PCPD، وقوانين قائمة مثل PDPO يجب مراعاتها عند استخدام AI.[5][9][10]

ما موضوع إرشادات DPO لعام 2025؟

أصدر مكتب السياسة الرقمية في 15 أبريل 2025 الإرشادات التقنية والتطبيقية للذكاء الاصطناعي التوليدي في هونغ كونغ.[5] وتغطي الوثيقة نطاق التطبيقات، والقيود، والمخاطر المحتملة، ومبادئ الحوكمة، وتقدم توجيهاً عملياً للمطورين ومقدمي الخدمات والمستخدمين.[8]

هل تحتاج الشركات إلى سياسة داخلية لاستخدام GenAI؟

تشير PCPD إلى أن قائمتها الإرشادية تساعد المؤسسات على إعداد سياسات أو إرشادات داخلية لاستخدام الموظفين للذكاء الاصطناعي التوليدي في العمل مع الامتثال لـ PDPO.[9] كما تذكر إرشادات DPO أن سياسات المؤسسات يمكن أن تغطي الأدوات المسموح بها، والاستخدامات المسموح بها، وأنواع البيانات المدخلة، واستخدام المخرجات وتخزينها.[1]

هل يكفي منع إدخال البيانات الشخصية فقط؟

منع إدخال البيانات الشخصية قد يكون خطوة مهمة، لكنه لا يكفي وحده لإدارة المخاطر. فإرشادات DPO تتناول أيضاً مخاطر مثل تسرب البيانات، وتحيز النماذج، والأخطاء.[8] لذلك تحتاج المؤسسة إلى سياسة أوسع تشمل الصلاحيات، وأنواع الاستخدام، وتخزين المخرجات، والمراجعة البشرية.

الخلاصة

الصياغة الأدق لوضع هونغ كونغ في 2025 هي: لا يوجد حتى الآن قانون واحد شامل ومخصص للذكاء الاصطناعي، لكن توجد إرشادات حكومية للذكاء الاصطناعي التوليدي، وتوجيهات خصوصية من PCPD، ومتطلبات قائمة بموجب PDPO يجب التعامل معها معاً.[4][5][9][10]

إذا كانت المؤسسة تستخدم GenAI أو تستعد لتبنيه، فالخطوة العملية الأولى هي إعداد سياسة قابلة للتنفيذ: تحديد الأدوات، وأغراض الاستخدام، وحدود إدخال البيانات، وطريقة استخدام المخرجات وتخزينها، وصلاحيات الموظفين والأجهزة، وإدخال الخصوصية وتسرب البيانات والتحيز والأخطاء في منظومة إدارة المخاطر.[1][8][9]

هذه قراءة معلوماتية مبنية على المصادر العامة المشار إليها، ولا تُعد استشارة قانونية. عند التعامل مع استخدامات عالية المخاطر، أو بيانات شخصية، أو قطاعات خاضعة لتنظيم خاص، ينبغي مراجعة الوثائق الرسمية وطلب مشورة مهنية مناسبة.

Studio Global AI

Search, cite, and publish your own answer

Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.

ابحث وتحقق من الحقائق مع Studio Global AI

الوجبات السريعة الرئيسية

  • حتى 2025، لا توجد في هونغ كونغ منظومة قانونية مستقلة واحدة مخصصة للذكاء الاصطناعي أو البيانات الضخمة أو تعلّم الآلة، لكن ذلك لا يعني غياب الإرشادات والتنظيمات ذات الصلة.[4][5][9]
  • أصدر مكتب السياسة الرقمية في 15 أبريل 2025 إرشادات تقنية وتطبيقية للذكاء الاصطناعي التوليدي تغطي نطاق الاستخدام والقيود والمخاطر ومبادئ الحوكمة.[5][8]
  • ينبغي للمؤسسات التي تستخدم GenAI أن تضبط الأدوات المسموح بها، وأغراض الاستخدام، وأنواع البيانات المدخلة، وطريقة استخدام المخرجات وتخزينها، وصلاحيات الموظفين والأجهزة.[1][9]

يسأل الناس أيضا

ما هي الإجابة المختصرة على "هل لدى هونغ كونغ قانون للذكاء الاصطناعي؟ دليل 2025 للشركات حول GenAI والخصوصية"؟

حتى 2025، لا توجد في هونغ كونغ منظومة قانونية مستقلة واحدة مخصصة للذكاء الاصطناعي أو البيانات الضخمة أو تعلّم الآلة، لكن ذلك لا يعني غياب الإرشادات والتنظيمات ذات الصلة.[4][5][9]

ما هي النقاط الأساسية التي يجب التحقق منها أولاً؟

حتى 2025، لا توجد في هونغ كونغ منظومة قانونية مستقلة واحدة مخصصة للذكاء الاصطناعي أو البيانات الضخمة أو تعلّم الآلة، لكن ذلك لا يعني غياب الإرشادات والتنظيمات ذات الصلة.[4][5][9] أصدر مكتب السياسة الرقمية في 15 أبريل 2025 إرشادات تقنية وتطبيقية للذكاء الاصطناعي التوليدي تغطي نطاق الاستخدام والقيود والمخاطر ومبادئ الحوكمة.[5][8]

ماذا يجب أن أفعل بعد ذلك في الممارسة العملية؟

ينبغي للمؤسسات التي تستخدم GenAI أن تضبط الأدوات المسموح بها، وأغراض الاستخدام، وأنواع البيانات المدخلة، وطريقة استخدام المخرجات وتخزينها، وصلاحيات الموظفين والأجهزة.[1][9]

ما هو الموضوع ذو الصلة الذي يجب أن أستكشفه بعد ذلك؟

تابع مع "Claude Security من Anthropic: شرح النسخة التجريبية لفحص ثغرات الشيفرة بالذكاء الاصطناعي" لزاوية أخرى واستشهادات إضافية.

فتح الصفحة ذات الصلة

ما الذي يجب أن أقارنه بهذا؟

تحقق من هذه الإجابة مقابل "Grok 4.3 API: مليون توكن وسعر منخفض… كيف تراهن xAI على النماذج والصوت؟".

فتح الصفحة ذات الصلة

مواصلة البحث الخاص بك

محادثة بحثية

أنت

سؤال بحثي

搜尋:香港而家有冇 AI 法例或者官方指引?

Studio Global AI12 المصادر

إجابة مستشهد بها

有,但暫時我搵到嘅重點係「官方指引多過專門 AI 法例」。香港政府數字政策辦公室喺 2025 年 4 月 15 日發布《香港生成式人工智能技術及應用指引》,內容涵蓋生成式 AI 嘅應用範圍、限制、風險同治理原則。[5][8] 私隱專員公署亦喺 2025 年 3 月發布《僱員使用生成式 AI 指引清單》,協助機構喺工作場所使用 GenAI 時符合《個人資料(私隱)條例》要求。[9]

  • 按現時公開資料,香港未見有一條獨立、專門規管 AI 嘅單一法例;現階段主要係靠現有法律框架加官方指引處理 AI 相關問題。[4]
  • 官方層面最新、最明確嘅 AI 指引之一,係數字政策辦公室發布嘅《香港生成式人工智能技術及應用指引》,對象包括技術開發者、服務提供者同使用者。[5][8]
  • 私隱方面,PCPD 嘅《僱員使用生成式 AI 指引清單》重點係幫機構訂內部政策,減低資料外洩同違反私隱法例風險。[9]
  • 所以如果你問「香港而家有冇 AI 規管」,較準確講法係:有官方指引;但未見一部專門 AI 法例已經單獨立法生效。[4][5][9]

如果你想,我可以下一步幫你:

  • 整理「香港 AI 相關官方文件清單 + 連結」
  • 或者直接講你知「企業而家用 ChatGPT / GenAI 喺香港要注意乜」

المصادر

  • [1] [PDF] Generative Artificial Intelligence Technical and Application Guidelinedigitalpolicy.gov.hk

    31  Establish Organisation Policies and Guidelines: Organisations adopting generative AI services should developing their internal policies or guidelines, which cover1: ◼ the permitted tools (include publicly available and internally developed generative A...

  • [4] AI, Machine Learning & Big Data Laws 2025 | Hong Konggloballegalinsights.com

    AI, Machine Learning & Big Data Laws and Regulations 2025 – Hong Kong. Hong Kong is emerging as a regional hub for artificial intelligence (AI), big data and machine learning (ML). The Law Society of Hong Kong issued a position paper on the impact of AI on...

  • [5] Digital Policy Office releases Hong Kong Generative Artificial Intelligence Technical and Application Guidelineinfo.gov.hk

    Digital Policy Office releases Hong Kong Generative Artificial Intelligence Technical and Application Guideline. Digital Policy Office releases Hong Kong Generative Artificial Intelligence Technical and Application Guideline. The Digital Policy Office (DPO)...

  • [8] news.gov.hk - AI guidelines issuednews.gov.hk

    The Digital Policy Office (DPO) today released the Hong Kong Generative Artificial Intelligence (AI) Technical & Application Guideline, covering the scope and limitations of applications, potential risks and governance principles of generative AI technology...

  • [9] PCPD in Mediapcpd.org.hk

    To facilitate the safe and healthy development of AI in Hong Kong and to help organisations develop internal policies or guidelines on the use of Gen AI by employees at work while complying with the requirements of the Personal Data (Privacy) Ordinance (“ P...

  • [10] AI Library Hong Kongmofo.com

    Hong Kong has enacted laws and/or issued guidance on Artificial Intelligence (AI). These guidelines published by the Office of the Privacy Commissioner for Personal Data include practical guidance, ethical principles for AI and a self -assessment checklist...