हांगकांग में AI को लेकर सबसे सही जवाब यह है: अभी कोई एकल, अलग AI कानून नहीं है, लेकिन सरकारी दिशा-निर्देश और मौजूदा गोपनीयता कानून पहले से लागू हैं। इसलिए कंपनियों के लिए असली सवाल यह नहीं है कि नया कानून कब आएगा, बल्कि यह है कि आज कर्मचारी GenAI टूल में कौन-सा डेटा डाल रहे हैं, आउटपुट का इस्तेमाल कहाँ हो रहा है और व्यक्तिगत डेटा की जिम्मेदारी कौन ले रहा है।
पहले निष्कर्ष: अलग AI कानून नहीं, लेकिन नियमों का ढांचा मौजूद है
2025 के सार्वजनिक कानूनी अवलोकन के अनुसार, हांगकांग में फिलहाल AI, बिग डेटा या मशीन लर्निंग को अलग से नियंत्रित करने वाला कोई standalone legal framework नहीं है।[4] इसका अर्थ यह नहीं कि AI का इस्तेमाल बिना किसी जवाबदेही के किया जा सकता है।
हांगकांग सरकार के Digital Policy Office, यानी DPO, ने 15 अप्रैल 2025 को Hong Kong Generative Artificial Intelligence Technical and Application Guideline जारी की।[5] सरकारी जानकारी के अनुसार, यह गाइडलाइन जनरेटिव AI तकनीक के application scope, limitations, संभावित जोखिमों और governance principles को कवर करती है, और developers, service providers तथा users के लिए practical operational guidance देती है।[
8]
गोपनीयता के मोर्चे पर, Office of the Privacy Commissioner for Personal Data, यानी PCPD, ने मार्च 2025 में Checklist on Guidelines for the Use of Generative AI by Employees प्रकाशित की। इसका उद्देश्य संस्थाओं को कर्मचारियों द्वारा काम में GenAI के उपयोग पर internal policies या guidelines बनाने में मदद करना है, ताकि Personal Data (Privacy) Ordinance यानी PDPO की आवश्यकताओं का पालन किया जा सके।[9]
मुख्य दस्तावेज: किसके लिए क्या मायने रखता है
| दस्तावेज या ढांचा | मुख्य रूप से किसके लिए | व्यावहारिक मतलब |
|---|---|---|
| Hong Kong Generative Artificial Intelligence Technical and Application Guideline | Technology developers, service providers और users।[ | GenAI के उपयोग-क्षेत्र, सीमाएँ, संभावित जोखिम और governance principles को समझने का आधार।[ |
| DPO गाइडलाइन में organisation policy से जुड़े सुझाव | GenAI सेवाएँ अपनाने वाली संस्थाएँ।[ | नीति में अनुमत टूल, अनुमत उपयोग, policy applicability, इनपुट डेटा के प्रकार और मात्रा, आउटपुट के उपयोग और storage को शामिल किया जा सकता है।[ |
| PCPD की कर्मचारी GenAI चेकलिस्ट | वे संस्थाएँ जहाँ कर्मचारी काम में GenAI इस्तेमाल करते हैं।[ | कर्मचारियों के GenAI उपयोग पर internal policy बनाते समय PDPO अनुपालन और data security को ध्यान में रखने में मदद।[ |
| PCPD की व्यापक AI privacy guidance | वे संस्थाएँ जो व्यक्तिगत डेटा से जुड़े AI systems खरीदती, इस्तेमाल करती या विकसित करती हैं।[ | Practical guidance, AI ethical principles और self-assessment checklist के जरिए PDPO, Cap. 486, के अनुपालन में सहायता।[ |
अलग AI कानून न होने पर भी कंपनियों को अभी क्यों तैयारी करनी चाहिए?
अगर सवाल केवल इतना है कि क्या हांगकांग में AI के लिए एक अलग कानून है, तो 2025 के उपलब्ध कानूनी अवलोकन के आधार पर जवाब है: नहीं, अभी ऐसा standalone AI framework नहीं है।[4]
लेकिन अगर सवाल यह है कि क्या AI और GenAI के उपयोग पर कोई आधिकारिक अपेक्षा, guidance या compliance risk मौजूद है, तो जवाब है: हाँ। DPO की गाइडलाइन GenAI के उपयोग, सीमाओं, governance और तकनीकी जोखिमों को एक जगह रखती है। सरकारी विवरण में data leakage, model bias और errors जैसे technical risks का भी उल्लेख है जिन्हें संबोधित करने की जरूरत है।[8]
जहाँ AI के उपयोग में व्यक्तिगत डेटा शामिल हो, वहाँ PDPO जोखिम तुरंत सामने आता है। PCPD की कर्मचारी GenAI चेकलिस्ट सीधे इस बात से जुड़ी है कि संस्था कर्मचारी-उपयोग के लिए internal policy बनाए और PDPO की आवश्यकताओं का पालन करे।[9]
कंपनी की GenAI नीति में कम से कम क्या होना चाहिए?
DPO की गाइडलाइन के अनुसार, GenAI सेवाएँ अपनाने वाली संस्थाओं को internal policies या guidelines विकसित करनी चाहिए। इनमें permitted tools, permissible use, policy applicability, input information के अनुमत प्रकार और मात्रा, output information के उपयोग और output storage जैसे पहलू शामिल किए जा सकते हैं।[1]
व्यावहारिक रूप से, कोई कंपनी, स्कूल, गैर-लाभकारी संस्था या टीम इन आठ बिंदुओं से शुरुआत कर सकती है:
- कौन-से AI टूल इस्तेमाल हो सकते हैं: सार्वजनिक रूप से उपलब्ध और internally developed GenAI tools या applications में से किनका उपयोग अनुमत है, यह लिखित रूप में तय करें।[
1]
- किस काम के लिए उपयोग हो सकता है: मसौदा तैयार करना, जानकारी का सार बनाना, या text, audio और visual content बनाना जैसे उपयोग स्पष्ट करें।[
1]
- नीति कहाँ लागू होगी: कौन-से विभाग, workflow, job roles या use cases इस policy के दायरे में आएँगे, यह साफ करें।[
1]
- कौन-सा डेटा इनपुट किया जा सकता है: GenAI टूल में डाली जा सकने वाली जानकारी के प्रकार और मात्रा पर सीमा तय करें।[
1]
- कौन-सा डेटा इनपुट नहीं किया जाना चाहिए: ग्राहक जानकारी, कर्मचारी रिकॉर्ड, गोपनीय business documents या personal data जैसे मामलों में अनुमति, रोक और approval process अलग से स्पष्ट करें। यह खासकर PDPO risk के संदर्भ में महत्वपूर्ण है।[
9][
10]
- AI आउटपुट का उपयोग कैसे होगा: AI-generated content को internal draft, external communication, customer response या publication में कैसे इस्तेमाल किया जा सकता है, यह निर्धारित करें। DPO गाइडलाइन output information के permissible use को policy का हिस्सा मानती है।[
1]
- AI आउटपुट कहाँ और कितने समय तक रखा जाएगा: Generated output को किस system में store किया जाएगा, क्या उसे दूसरे tools में copy किया जा सकता है और retention arrangement क्या होगा, यह तय करें।[
1]
- कर्मचारी और device access: PCPD के अनुसार, AI policy में यह भी बताया जाना चाहिए कि कर्मचारी किन प्रकार के devices से GenAI tools access कर सकते हैं और किन categories के कर्मचारियों को उपयोग की अनुमति है।[
9]
इन बिंदुओं के अलावा, जोखिम प्रबंधन को policy के अंत में औपचारिक शब्दों में छोड़ना काफी नहीं है। Data leakage, model bias और errors जैसे risks को review process, approval flow और training में भी जगह मिलनी चाहिए, क्योंकि DPO की जानकारी इन्हें GenAI technology के relevant technical risks के रूप में रेखांकित करती है।[8]
PDPO और व्यक्तिगत डेटा: AI compliance का सबसे संवेदनशील हिस्सा
हांगकांग में AI या GenAI का उपयोग जैसे ही personal data से जुड़ता है, PDPO केंद्र में आ जाता है। PCPD ने अपनी कर्मचारी GenAI चेकलिस्ट इस उद्देश्य से प्रकाशित की कि संस्थाएँ काम के दौरान कर्मचारियों द्वारा GenAI उपयोग पर internal policies या guidelines बना सकें और PDPO की requirements का पालन कर सकें।[9]
PCPD की व्यापक AI privacy guidance में practical guidance, ethical principles और self-assessment checklist शामिल हैं, जिनका उद्देश्य AI development और use में Personal Data (Privacy) Ordinance, Cap. 486, के अनुपालन में संस्थाओं की मदद करना है।[10]
इसलिए AI policy केवल यह न बताए कि कौन-सा chatbot या GenAI platform इस्तेमाल किया जा सकता है। उसे यह भी बताना चाहिए कि डेटा कहाँ से आया, क्या उसे AI tool में डालने की अनुमति है, किसे access मिलेगा, output कहाँ store होगा और sensitive या external-facing उपयोग से पहले review कौन करेगा।
कर्मचारियों और सामान्य users के लिए क्या सावधानी जरूरी है?
DPO की GenAI गाइडलाइन केवल developers या platform providers के लिए नहीं है; इसका दायरा users तक भी जाता है।[8] अगर आप काम में GenAI का उपयोग कर रहे हैं, तो सुरक्षित तरीका यही है कि पहले अपनी संस्था की internal policy देखें। बिना अनुमति के company documents, customer data, internal reports या personal information को public GenAI tools में डालना जोखिम भरा हो सकता है।
AI output को भी अंतिम सत्य न मानें। सरकारी जानकारी में model bias और errors जैसे जोखिमों का उल्लेख है।[8] इसलिए legal, medical, financial, HR, customer communication या public announcement जैसे high-impact उपयोगों में human review और source checking को routine प्रक्रिया माना जाना चाहिए।
FAQ: हांगकांग में AI नियमों पर आम सवाल
क्या हांगकांग में अभी AI कानून है?
2025 के सार्वजनिक कानूनी अवलोकन के अनुसार, हांगकांग में AI, बिग डेटा या मशीन लर्निंग को अलग से नियंत्रित करने वाला कोई standalone legal framework फिलहाल नहीं है।[4] लेकिन GenAI पर सरकारी DPO गाइडलाइन, PCPD की privacy-related guidance और PDPO जैसे मौजूदा कानूनी दायित्व साथ-साथ लागू हो सकते हैं।[
5][
9][
10]
DPO की GenAI गाइडलाइन क्या कवर करती है?
DPO ने 15 अप्रैल 2025 को Hong Kong Generative Artificial Intelligence Technical and Application Guideline जारी की।[5] सरकारी जानकारी के अनुसार, यह गाइडलाइन GenAI technology के application scope, limitations, potential risks और governance principles को कवर करती है तथा developers, service providers और users के लिए practical operational guidance देती है।[
8]
क्या हर कंपनी को AI use policy बनानी चाहिए?
इसे केवल formal legal checkbox की तरह न देखें। PCPD की कर्मचारी GenAI चेकलिस्ट का उद्देश्य संस्थाओं को कर्मचारियों के GenAI use पर internal policy या guideline बनाने में मदद करना है, ताकि PDPO requirements का पालन किया जा सके।[9] DPO गाइडलाइन भी GenAI अपनाने वाली संस्थाओं की internal policy में tools, use cases, input data, output use और output storage जैसे मुद्दों को शामिल करने की बात करती है।[
1]
सबसे पहला कदम क्या होना चाहिए?
पहले यह inventory बनाएं कि संस्था में कौन-से GenAI tools इस्तेमाल हो रहे हैं, कौन-सा डेटा उनमें डाला जा रहा है, output कहाँ इस्तेमाल हो रहा है और कौन-से teams या employees access रखते हैं। इसके बाद policy में permitted tools, permitted use, input limits, output use, storage और device access को लिखित रूप में तय करें। DPO और PCPD की guidance इन्हीं क्षेत्रों को compliance planning का व्यावहारिक आधार बनाती है।[1][
9]
सारांश
हांगकांग की 2025 स्थिति को एक वाक्य में कहें तो: एक अलग, व्यापक AI कानून अभी नहीं है, लेकिन GenAI पर सरकारी guidance, PCPD की privacy guidance और PDPO जैसे मौजूदा नियम मिलकर AI उपयोग के लिए compliance framework बना रहे हैं।[4][
5][
9][
10]
जो संस्थाएँ हांगकांग में GenAI इस्तेमाल कर रही हैं या तैनात करने की तैयारी में हैं, उनके लिए सबसे व्यावहारिक शुरुआत एक लागू करने योग्य AI use policy है: कौन-से टूल, किस उद्देश्य से, किस डेटा के साथ, किस employee access से और किस output storage arrangement के तहत इस्तेमाल होंगे। साथ ही privacy, data leakage, bias और errors को risk management का हिस्सा बनाना जरूरी है।[1][
8][
9]
यह लेख उपलब्ध सार्वजनिक स्रोतों के आधार पर जानकारी देता है और कानूनी सलाह नहीं है। High-risk AI deployment, personal data processing या regulated industry से जुड़े मामलों में संबंधित official documents और professional advice लेना चाहिए।




