判断 AI 是否符合欧盟《通用数据保护条例》(GDPR;德语区常称 DSGVO),关键不在于它是不是被贴上了 AI 标签,而在于一个具体问题:这个 AI 模型在开发、部署或使用过程中,是否处理了个人数据,以及这种处理有没有可靠的 GDPR 依据 [3][
4]。
欧盟数据保护委员会(EDPB)的 Opinion 28/2024,是目前给出判断框架的重要文件。它讨论的是 AI 模型语境下处理个人数据的若干数据保护问题,而不是给所有 AI 一张通行证,也不是宣布所有 AI 一律违规 [3][
4]。
先给结论:不能一概而论
说 AI 一定符合 GDPR,太笼统;说所有 AI 使用都不合法,也同样不准确。EDPB 的文件关注的是:在 AI 模型相关场景中,个人数据是否被处理,以及这种处理是否满足 GDPR 要求 [3][
4]。
EDPB 在 2024 年 12 月 18 日的公告中,把 Opinion 28/2024 的重点概括为三个问题:AI 模型何时以及如何可被视为匿名;合法利益能否以及如何作为开发或使用 AI 模型的法律依据;如果 AI 模型使用了被违法处理的个人数据进行开发,后续应如何看待 [3]。
因此,在德国和欧盟范围内,不能从这些资料中得出一个简单答案:AI 一律合规,或 AI 一律不合规。真正要审查的是具体处理活动:涉及哪些个人数据、为了什么目的、依据哪一项法律基础,以及后续处理会带来什么风险 [2][
3][
4]。
EDPB Opinion 28/2024 到底说明了什么
Opinion 28/2024 的标题和范围都很明确:它讨论的是与 AI 模型语境下处理个人数据有关的若干数据保护方面 [4]。换句话说,它不是一本覆盖所有 AI 法律问题的总指南,而是集中处理 GDPR 下几个高频、关键的问题 [
3][
4]。
这对企业、开发者和使用方都很重要。监管关注点不是某个系统在技术上多先进,而是它在具体场景中如何处理个人数据 [3][
4]。尤其需要看三件事:模型是否真的匿名、是否能以合法利益作为法律依据、以及训练或开发阶段如果存在违法处理,会不会影响后续使用 [
2][
3]。
1. AI 模型不等于自动匿名
一个常见误区是:只要原始个人数据看不见了,或者数据被吸收到模型参数里,模型就自然是匿名的。EDPB 的公告并不支持这种简单判断。它指出,AI 模型是否匿名,应由数据保护监管机构根据个案进行评估 [3]。
这意味着,单纯声称模型已经匿名,并不足以支撑 GDPR 合规结论。关键是:在具体模型、具体技术和具体使用环境下,是否真的可以把它视为匿名 [3]。
如果个人数据仍然保留在模型中,问题会更敏感。ENISA 关于 EDPB Opinion 的网络研讨材料提到,在模型中保留个人数据的情况下,后续处理的合法性可能受到影响,需要逐案评估 [2]。
2. 合法利益可以被讨论,但不是万能钥匙
EDPB Opinion 28/2024 明确讨论了合法利益(legitimate interest)能否以及如何作为开发或使用 AI 模型的法律依据 [3]。这说明合法利益可能在某些场景中 relevant,但它不是自动生效的豁免条款。
也就是说,不能把合法利益理解为:只要是 AI 项目,就可以默认用这一项作为 GDPR 依据。真正的问题是,在某个具体开发或使用环节中,这一法律依据是否能够成立 [3]。
如果早期数据处理本身存在问题,判断会更加复杂。ENISA 材料提到,在后续处理基于合法利益的情况下,如果初始处理违法,这一点需要被纳入合法利益评估;是否影响后续处理合法性,仍需个案判断 [2]。
3. 训练数据的历史问题可能不会自动消失
Opinion 28/2024 的另一个核心问题是:如果一个 AI 模型是用被违法处理的个人数据开发出来的,之后应如何处理 [3]。
这带来的实际提醒是:数据来源的合规瑕疵,不会因为后来使用的是模型而不是原始数据集,就自动一笔勾销。根据 ENISA 材料,如果个人数据仍保留在模型中,可能影响后续处理的合法性,并需要逐案评估 [2]。
如果一个 AI 项目涉及多个参与方,责任边界也要说清楚。ENISA 材料区分了同一控制者和不同控制者等情形,并强调每个控制者都应确保自身处理活动的合法性 [2]。
AI 项目的 GDPR 检查清单
下面这份清单不是法律意见,也不能替代个案咨询。它只是把 EDPB 和 ENISA 材料中对 AI 模型尤其重要的审查点整理出来。
1. 先分清阶段和目的
先确认你审查的是开发、部署、使用,还是 AI 模型相关的其他处理环节。EDPB 的公告明确提到,Opinion 28/2024 涉及个人数据在 AI 模型开发和部署中的使用 [3]。
2. 确认是否涉及个人数据
记录清楚:哪些环节处理了个人数据,处理的是哪类数据,处理与模型之间的关系是什么。Opinion 28/2024 关注的正是 AI 模型语境下的个人数据处理 [4]。
3. 匿名性要能证明,不能只靠声明
如果项目方认为模型已经匿名,需要有能经得起审查的个案依据。EDPB 公告指出,AI 模型是否匿名,应由数据保护监管机构逐案评估 [3]。
4. 法律依据要对应具体处理活动
如果准备使用合法利益作为法律依据,需要说明它为什么适用于当前开发或使用环节,以及如何适用。EDPB 材料并没有给 AI 项目提供一个笼统的 GDPR 例外 [3][
4]。
5. 查看模型中是否仍保留个人数据,以及训练历史是否合规
需要审查个人数据是否仍留在模型中,也要回看开发阶段的数据处理是否合法。这两个因素都可能影响后续处理的判断 [2][
3]。
6. 多方参与时,明确谁对哪一步负责
如果模型开发、部署、集成和使用由不同主体完成,需要明确各方在 GDPR 下对哪些处理环节负责。ENISA 材料强调,每个控制者都应确保自身处理活动的合法性 [2]。
三个常见误读
误读一:原始数据看不见了,AI 模型就一定匿名。 不能这样推定。EDPB 公告称,AI 模型是否匿名需要个案评估 [3]。
误读二:有合法利益就一定能做。 EDPB 确实讨论了合法利益能否用于 AI 模型开发或使用,但这并不等于任何 AI 场景都自动满足这一法律依据 [3]。
误读三:模型训练完后,训练数据怎么来的就不重要了。 Opinion 28/2024 明确讨论了使用被违法处理的个人数据开发 AI 模型会产生什么问题 [3]。如果个人数据仍保留在模型中,后续处理可能受到影响 [
2]。
结语
在德国和欧盟,AI 不是因为叫 AI 就自动符合 GDPR;但它也不是因为属于 AI 就当然被禁止。更稳妥的事实核查结论是:要看具体个人数据处理活动,尤其是模型是否匿名、法律依据是否成立、模型中是否保留个人数据,以及早期违法处理是否会影响后续使用 [2][
3][
4]。




