KI ist in Deutschland und der EU weder automatisch DSGVO konform noch automatisch verboten; nach der EDPB Mitteilung vom 18. Berechtigtes Interesse kann eine Rolle spielen, ersetzt aber keine Einzelfallprüfung; wenn personenbezogene Daten im Modell verbleiben oder vorher unrechtmäßig verarbeitet wurden, kann das die...

Create a landscape editorial hero image for this Studio Global article: Ist KI DSGVO-konform? Der Faktencheck für Deutschland und die EU. Article summary: KI ist in Deutschland und der EU nicht pauschal DSGVO konform: Nach der EDPB Opinion 28/2024 kommt es auf den konkreten Einsatz, personenbezogene Daten, Anonymität und Rechtsgrundlage an.. Topic tags: ai, privacy, gdpr, data protection, european union. Reference image context from search candidates: Reference image 1: visual subject "A blurred abstract image with warm gold, brown, and black tones is displayed alongside a white page featuring the title "Enzai | AI Governance Deep Dive" and a subtitle indicating" source context "Ist KI DSGVO-konform? Was in Deutschland und der EU wirklich gilt | Antwort | Studio Global" Reference image 2: visual subject "Der KI-Selbstcheck leitet dich mit einigen einfachen Fragen zu deinem Ergebnis. Natü
Die entscheidende Frage lautet nicht, ob ein System „KI“ heißt. Unter der DSGVO kommt es darauf an, ob bei einem konkreten KI-Modell personenbezogene Daten verarbeitet werden — etwa bei Entwicklung oder Einsatz — und ob dafür eine tragfähige datenschutzrechtliche Prüfung vorliegt [3][
4].
Die EDPB Opinion 28/2024 ist dafür der wichtigste aktuelle Bezugspunkt in den vorliegenden Quellen: Sie behandelt bestimmte Datenschutzaspekte bei der Verarbeitung personenbezogener Daten im Kontext von KI-Modellen [4]. Aus ihr folgt kein pauschaler Freibrief, aber auch kein pauschales Verbot von KI [
3][
4].
Studio Global AI
Use this topic as a starting point for a fresh source-backed answer, then compare citations before you share it.
KI ist in Deutschland und der EU weder automatisch DSGVO konform noch automatisch verboten; nach der EDPB Mitteilung vom 18.
KI ist in Deutschland und der EU weder automatisch DSGVO konform noch automatisch verboten; nach der EDPB Mitteilung vom 18. Berechtigtes Interesse kann eine Rolle spielen, ersetzt aber keine Einzelfallprüfung; wenn personenbezogene Daten im Modell verbleiben oder vorher unrechtmäßig verarbeitet wurden, kann das die spätere Nutzung beeinflu...
Fahren Sie mit „Ölschock um Iran bremst Zinssenkungen in Brasilien und Südkorea“ für einen anderen Blickwinkel und zusätzliche Zitate fort.
Open related pageVergleichen Sie diese Antwort mit „Warum Russlands Vormarsch in der Ukraine nur noch kriecht“.
Open related pageScenario 1 • Same controller + personal data is retained in the model There may be an impact on lawfulness of the subsequent processing Case-by-case assessment needed For instance: If the subsequent processing is based on legitimate interest, need to consid...
Brussels, 18 December - The European Data Protection Board (EDPB) has adopted an opinion\ on the use of personal data for the development and deployment of AI models. This opinion looks at 1) when and how AI models can be considered anonymous, 2) whether an...
Skip to main content. []( BG Български. [CS Čeština]( "Č…
Die Aussage „KI ist DSGVO-konform“ ist zu allgemein. Ebenso ungenau wäre die Aussage, jede KI-Nutzung sei automatisch unzulässig. Die EDPB-Materialien betrachten KI-Modelle als Kontext, in dem personenbezogene Daten verarbeitet werden können, und prüfen genau diese Verarbeitung [3][
4].
In seiner Mitteilung vom 18. Dezember 2024 nennt der Europäische Datenschutzausschuss drei zentrale Fragen zur Opinion 28/2024: wann und wie KI-Modelle als anonym gelten können, ob und wie berechtigtes Interesse als Rechtsgrundlage für Entwicklung oder Nutzung von KI-Modellen herangezogen werden kann und was gilt, wenn ein KI-Modell mit unrechtmäßig verarbeiteten personenbezogenen Daten entwickelt wurde [3].
Für Deutschland lässt sich aus diesen Quellen daher keine pauschale Sonderantwort ableiten. Wer KI unter der DSGVO bewertet, muss den konkreten Verarbeitungsvorgang prüfen: Welche personenbezogenen Daten sind betroffen, zu welchem Zweck, auf welcher Rechtsgrundlage und mit welchem Risiko für spätere Verarbeitungsschritte [2][
3][
4]?
Die Opinion 28/2024 ist ausdrücklich auf „certain data protection aspects“ im Zusammenhang mit personenbezogenen Daten und KI-Modellen gerichtet [4]. Sie beantwortet also nicht jede denkbare KI-Rechtsfrage, sondern fokussiert auf besonders wichtige DSGVO-Punkte [
3][
4].
Diese Fokussierung ist für die Praxis entscheidend: Ein KI-Projekt wird nicht durch sein technisches Etikett bewertet, sondern durch die Verarbeitung personenbezogener Daten im jeweiligen Kontext [3][
4]. Besonders relevant sind dabei Anonymität, die mögliche Rechtsgrundlage des berechtigten Interesses und die Folgen einer möglicherweise rechtswidrigen Datenverarbeitung in der Entwicklungsphase [
2][
3].
Ein häufiger Fehlschluss lautet: Wenn personenbezogene Daten in einem Modell „aufgehen“, sei das Modell automatisch anonym. Die EDPB-Mitteilung sagt dagegen, dass Datenschutzaufsichtsbehörden fallbezogen beurteilen sollen, ob ein KI-Modell anonym ist [3].
Das bedeutet praktisch: Eine bloße Behauptung, ein Modell sei anonym, reicht für eine belastbare DSGVO-Bewertung nicht aus. Entscheidend ist, ob das konkrete Modell unter den konkreten Umständen als anonym gelten kann [3].
Besonders wichtig wird diese Prüfung, wenn personenbezogene Daten im Modell verbleiben. Die ENISA-Webinarunterlage zur EDPB-Opinion beschreibt Szenarien, in denen zurückbehaltene personenbezogene Daten die Rechtmäßigkeit einer späteren Verarbeitung beeinflussen können; dafür sei eine Einzelfallprüfung nötig [2].
Die EDPB-Opinion behandelt ausdrücklich, ob und wie berechtigtes Interesse als Rechtsgrundlage für die Entwicklung oder Nutzung von KI-Modellen verwendet werden kann [3]. Das ist relevant, aber kein pauschaler Persilschein.
Aus den vorliegenden EDPB-Materialien folgt nicht, dass jede KI-Entwicklung oder jede KI-Nutzung automatisch durch berechtigtes Interesse gedeckt wäre. Die Frage ist vielmehr, ob diese Rechtsgrundlage für den konkreten Verarbeitungsvorgang trägt [3].
Noch sensibler wird die Bewertung, wenn frühere Verarbeitungsschritte problematisch waren. Die ENISA-Unterlage nennt Fälle, in denen bei einer späteren Verarbeitung auf Grundlage berechtigten Interesses eine anfängliche Unrechtmäßigkeit in die Bewertung einbezogen werden muss [2].
Ein weiterer Kernpunkt der Opinion ist die Frage, was passiert, wenn ein KI-Modell mit personenbezogenen Daten entwickelt wurde, die unrechtmäßig verarbeitet wurden [3].
Die praktische Konsequenz: Eine rechtlich problematische Datenherkunft verschwindet nicht automatisch, nur weil später nicht mehr der ursprüngliche Datensatz, sondern ein KI-Modell genutzt wird. Wenn personenbezogene Daten im Modell zurückbehalten werden, kann das die Rechtmäßigkeit späterer Verarbeitung beeinflussen; laut ENISA-Unterlage ist auch hier eine Einzelfallprüfung erforderlich [2].
Bei mehreren Beteiligten kommt hinzu, dass Verantwortlichkeiten sauber getrennt werden müssen. Die ENISA-Unterlage unterscheidet Szenarien mit demselben oder getrennten Verantwortlichen und betont, dass jeder Verantwortliche die Rechtmäßigkeit seiner eigenen Verarbeitung sicherstellen sollte [2].
Diese Checkliste ersetzt keine rechtliche Einzelfallberatung. Sie fasst die Prüfpunkte zusammen, die sich aus den vorliegenden EDPB- und ENISA-Materialien für KI-Modelle ergeben.
Klären Sie, ob es um Entwicklung, Einsatz oder eine andere Verarbeitung im Kontext eines KI-Modells geht. Die EDPB-Mitteilung bezieht sich ausdrücklich auf die Nutzung personenbezogener Daten für Entwicklung und Deployment von KI-Modellen [3].
Dokumentieren Sie, ob und an welcher Stelle personenbezogene Daten verarbeitet werden. Die Opinion 28/2024 betrifft gerade die Verarbeitung personenbezogener Daten im Kontext von KI-Modellen [4].
Wenn ein Modell als anonym eingestuft werden soll, muss diese Einschätzung fallbezogen tragfähig sein. Nach der EDPB-Mitteilung beurteilen Datenschutzaufsichtsbehörden die Anonymität eines KI-Modells im Einzelfall [3].
Wenn berechtigtes Interesse als Rechtsgrundlage dienen soll, muss geprüft werden, ob und wie diese Grundlage für den konkreten Entwicklungs- oder Nutzungsvorgang trägt [3]. Eine pauschale KI-Ausnahme ergibt sich aus den vorliegenden Quellen nicht [
3][
4].
Prüfen Sie, ob personenbezogene Daten im Modell verbleiben und ob die Daten in der Entwicklungsphase rechtmäßig verarbeitet wurden. Beide Punkte können für spätere Verarbeitungsschritte relevant sein [2][
3].
Wenn mehrere Stellen an Entwicklung, Bereitstellung oder Nutzung beteiligt sind, sollte klar sein, wer für welchen Verarbeitungsschritt verantwortlich ist. Die ENISA-Unterlage betont, dass jeder Verantwortliche die Rechtmäßigkeit seiner eigenen Verarbeitung sicherstellen sollte [2].
„Ein KI-Modell ist anonym, weil die Rohdaten nicht sichtbar sind.“ So einfach ist es nicht. Ob ein KI-Modell anonym ist, soll nach der EDPB-Mitteilung fallbezogen beurteilt werden [3].
„Berechtigtes Interesse reicht immer.“ Die EDPB-Opinion behandelt, ob und wie berechtigtes Interesse genutzt werden kann; daraus folgt keine automatische Rechtfertigung für jeden KI-Einsatz [3].
„Wenn das Modell einmal trainiert ist, spielt die Herkunft der Daten keine Rolle mehr.“ Die Opinion behandelt ausdrücklich, was gilt, wenn ein KI-Modell mit unrechtmäßig verarbeiteten personenbezogenen Daten entwickelt wurde [3]. Wenn personenbezogene Daten im Modell verbleiben, kann das die spätere Verarbeitung beeinflussen [
2].
KI ist in Deutschland und der EU nicht schon deshalb DSGVO-konform, weil sie KI ist. Sie ist aber auch nicht allein deshalb verboten. Der belastbare Faktencheck lautet: Entscheidend ist die konkrete Verarbeitung personenbezogener Daten — insbesondere Anonymität, Rechtsgrundlage, Modellinhalt und mögliche Folgen einer unrechtmäßigen Vorverarbeitung [2][
3][
4].
