香港でAIを使う場合、「AI法があるか」という問いは少し分けて考える必要があります。2025年時点の公開法制概説では、香港にはAI・ビッグデータ・機械学習を対象にした単一の独立した法制度はないとされています。[4] ただし、これはAI利用が無規制という意味ではありません。
生成AIについては香港政府のデジタル政策オフィスが公式指針を出しており、個人データを扱う場面では《個人データ(プライバシー)条例》、いわゆるPDPOと、個人データプライバシーコミッショナー事務局(PCPD)の指針が重要になります。[5][
9][
10]
まず結論:香港のAI規制は「専用法」より「既存法+公式指針」
現時点での整理は次の通りです。
- AI専用の単一法:2025年の公開法制概説では、AI・ビッグデータ・機械学習を包括的に扱う独立した法律枠組みはないとされています。[
4]
- 生成AIの公式指針:香港政府のデジタル政策オフィス(Digital Policy Office、DPO)は、2025年4月15日に《香港生成式人工智能技術及應用指引》を公表しました。[
5]
- 指針の対象:同指針は、生成AIの適用範囲、限界、潜在リスク、ガバナンス原則を扱い、技術開発者、サービス提供者、利用者に実務的な運用ガイダンスを提供するとされています。[
8]
- 個人データ保護:PCPDは2025年3月、従業員による業務上の生成AI利用について、組織が内部ポリシーやガイドラインを作るためのチェックリストを公表し、PDPOへの適合を支援すると説明しています。[
9]
なお、ここでいうDPOは、一般にいうデータ保護責任者ではなく、香港政府のDigital Policy Officeを指します。[5]
主要文書と実務上の位置づけ
| 文書・枠組み | 主な対象 | 実務上の意味 |
|---|---|---|
| 香港生成AI技術・応用指針 | 技術開発者、サービス提供者、利用者。[ | 生成AIの適用範囲、限界、潜在リスク、ガバナンス原則を整理しています。[ |
| DPO指針における組織内ポリシー | 生成AIサービスを採用する組織。[ | 利用を認めるツール、用途、入力情報の種類・量、出力の利用・保存などを定めることが想定されています。[ |
| PCPDの従業員向けGenAIチェックリスト | 従業員が業務で生成AIを使う組織。[ | 社内ポリシーやガイドラインの作成を助け、PDPOに沿った運用を促すものです。[ |
| PCPDのAIプライバシー関連指針 | 個人データを伴うAIシステムを調達・利用・開発する組織。[ | 実務指針、AI倫理原則、自己評価チェックリストを通じ、AIの開発・利用におけるPDPO遵守を支援します。[ |
「AI専用法がない」からといって、対応を後回しにできない理由
企業実務では、AI専用法の有無だけを見て判断すると危険です。DPOの生成AI指針は、データ漏えい、モデルバイアス、誤りといった生成AIの技術リスクを挙げています。[8] また、PCPDのチェックリストは、従業員が業務で生成AIを使う場面とPDPOへの適合を結び付けて説明しています。[
9]
つまり、香港で生成AIを使う企業にとっての現実的な論点は、「新しいAI法が成立するまで待つか」ではありません。先に決めるべきなのは、どのAIツールを使ってよいのか、どのデータを入力してよいのか、出力をどこまで業務利用してよいのか、誰がどの端末から使えるのか、という社内統制です。[1][
9]
社内AIポリシーに最低限入れたい8つの項目
DPO指針は、生成AIサービスを採用する組織に対し、内部ポリシーまたはガイドラインの整備を想定しています。その中で、利用を認めるツール、用途、適用範囲、入力情報、出力情報の利用・保存などが挙げられています。[1]
企業、学校、非営利団体など、従業員やメンバーが業務でGenAIを使う組織は、少なくとも次の観点を整理しておくと実務に落とし込みやすくなります。
- 利用を認めるAIツール:公開されている生成AIツールと、社内開発または社内導入された生成AIアプリケーションのどれを使ってよいかを明確にします。[
1]
- 認める用途:草案作成、情報の要約、テキスト・音声・画像などのコンテンツ作成に使えるかを定めます。[
1]
- ポリシーの適用範囲:どの部署、業務プロセス、利用場面にルールを適用するかを決めます。[
1]
- 入力できる情報の種類と量:生成AIに入力してよい情報の種類と量を制限します。[
1]
- 出力の利用ルール:AIが生成した内容を社内資料、対外文書、顧客対応などに使う場合の条件を決めます。モデルの誤りやバイアスはDPO指針でもリスクとして挙げられているため、重要な用途では人による確認手順も必要です。[
8]
- 出力の保存ルール:AIの出力をどこに保存してよいか、どの程度保持するかを定めます。[
1]
- 従業員・端末のアクセス権限:PCPDは、従業員がどの種類の端末からGenAIツールにアクセスできるか、どのカテゴリーの従業員に利用を認めるかをAIポリシーで明確にすべきだと説明しています。[
9]
- プライバシーと技術リスクの管理:個人データを伴うAIの開発・利用ではPDPO遵守が問題になります。PCPDのAI関連指針は、実務指針、倫理原則、自己評価チェックリストを通じてPDPOへの適合を支援するとされています。[
10] さらに、データ漏えい、モデルバイアス、誤りといったリスクも管理対象に含める必要があります。[
8]
個人データ:PDPOが実務上の重要な境界線
香港でAIやGenAIを使う際、個人データが関わるかどうかは大きな分岐点です。PCPDのチェックリストは、従業員による業務上のGenAI利用について、組織が内部ポリシーやガイドラインを作り、PDPOの要求に適合することを支援する目的で公表されています。[9]
また、PCPDのAI関連指針は、個人データを伴う予測AIや生成AIを含むAIシステムの調達・利用について、組織向けのガイダンスや推奨事項を示すものとされています。[10]
そのため、AIポリシーは単に「このツールを使ってよいか」を決めるだけでは不十分です。少なくとも、データの出所、入力できる情報、アクセス権限、出力の保存、重要な出力を誰が確認するかまで含めて設計する必要があります。[1][
9][
10]
従業員・一般ユーザーが気をつけること
DPOの生成AI指針は、開発者やサービス提供者だけでなく、利用者も対象にしています。[8] 業務で生成AIを使う場合は、まず所属組織のルールに従うことが基本です。社内規程が整っていない場合でも、個人データや機密性の高い業務資料を公開型の生成AIツールに入力してよいかは、慎重に判断する必要があります。DPO指針は、入力できる情報の種類と量を社内ポリシーで定めることを想定しています。[
1]
また、AIの出力をそのまま正解として扱うべきではありません。DPO指針は、生成AIの技術リスクとしてモデルバイアスや誤りを挙げています。[8] 対外発表、顧客対応、法務・医療・人事などの重要な判断に関わる文書では、人による確認を前提にした運用が必要です。
FAQ:香港のAI規制でよくある質問
香港にはAI法がありますか?
2025年時点の公開法制概説では、香港にはAI・ビッグデータ・機械学習を単独で扱う包括的な独立法制度はないとされています。[4] ただし、香港政府の生成AI指針、PCPDのプライバシー関連指針、PDPOなどの既存法令・指針を合わせて考える必要があります。[
5][
9][
10]
2025年のDPO生成AI指針は何を扱っていますか?
香港政府のデジタル政策オフィスは、2025年4月15日に《香港生成式人工智能技術及應用指引》を公表しました。[5] 政府発表によれば、この指針は生成AI技術の適用範囲、限界、潜在リスク、ガバナンス原則を扱い、技術開発者、サービス提供者、利用者に実務的な運用ガイダンスを提供します。[
8]
企業はAI利用ポリシーを作る必要がありますか?
DPO指針は、生成AIサービスを採用する組織が内部ポリシーまたはガイドラインを整備し、その中で利用可能なツール、用途、入力情報、出力の利用・保存などを定めることを想定しています。[1] PCPDのチェックリストも、従業員が業務でGenAIを使う場合の内部ポリシーやガイドライン作成を支援し、PDPOへの適合を促すものです。[
9]
従業員が公開型の生成AIに個人データを入力してもよいですか?
一律に判断するのではなく、社内ポリシーとPDPO対応を確認する必要があります。DPO指針は、生成AIに入力できる情報の種類と量をポリシーで定めることを想定しています。[1] また、PCPDのチェックリストは、業務上のGenAI利用についてPDPOへの適合を支援する目的で公表されています。[
9]
まとめ
香港のAI規制を正確に表すなら、「単一のAI専用法はまだ確認されていないが、無規制ではない」という言い方になります。2025年時点では、政府の生成AI指針、PCPDのプライバシー関連指針、PDPOなどの既存法令・枠組みを組み合わせて対応することが重要です。[4][
5][
9][
10]
企業がすぐに着手すべきことは、AIツールの導入可否を議論するだけではありません。利用可能なツール、用途、入力できるデータ、出力の利用・保存、従業員と端末の権限、そしてデータ漏えい・バイアス・誤り・個人データ保護のリスクを、運用できる社内ポリシーに落とし込むことです。[1][
8][
9]
本記事は、提示された公開情報に基づく一般的な整理であり、法的助言ではありません。高リスクなAI導入、個人データの大規模処理、金融・医療などの規制業種に関わる場合は、公式文書を確認し、必要に応じて専門家に相談してください。




