Bevor Sie eine Datei, Excel-Tabelle, einen Vertrag, eine Behördennotiz oder Quellcode in ein KI-Tool kopieren, reicht die Frage „Ist diese KI sicher?“ nicht aus. Wichtiger ist: Was würde passieren, wenn genau diese Daten nach außen gelangen? Speichert der Dienst Eingaben oder Ausgaben? Werden sie kommerziell genutzt, weiterverarbeitet oder zur Verbesserung des Dienstes eingesetzt? Wer hat Zugriff? Ist die Nutzung in Ihrer Organisation erlaubt? Und könnte ein Vorfall später untersucht und behoben werden?
Das NIST, das US-Institut für Standards und Technologie, nennt in seinem Rahmenwerk für generative KI unter anderem Datenherkunft, Datenschutz, Datenaufbewahrung, kommerzielle Nutzung, Opt-out-Möglichkeiten, Folgenabschätzungen, Incident Response, Monitoring und risikobasierte Kontrollen als Governance-Punkte. Der Europäische Datenschutzausschuss, kurz EDPB, behandelt speziell Datenschutzrisiken und Gegenmaßnahmen bei großen Sprachmodellen.[1][
2]
Mit „allgemein zugänglicher KI“ sind hier Cloud-Dienste gemeint, die Ihre Organisation nicht freigegeben hat und bei denen Sie Aufbewahrung, Weiterverwendung, Zugriffsrechte, Opt-out, Monitoring und Vorfallprozesse nicht verlässlich prüfen können. Das bedeutet nicht, dass KI grundsätzlich nie mit sensiblen Daten arbeiten darf. Entscheidend ist, ob es vorher überprüfbare Antworten zur Daten-Governance gibt.[2]
Kurz gesagt: Wenn die Antworten fehlen, keinen Originaltext hochladen
Identifizierbare personenbezogene Daten, Firmengeheimnisse und nicht veröffentlichte Behördenunterlagen gehören nicht direkt in allgemein zugängliche KI-Tools. Das gilt auch dann, wenn Sie nur eine Zusammenfassung, Übersetzung, Umformulierung oder Code-Fehlersuche möchten. Sobald die Eingabe Personen, Kunden, interne Entscheidungen, Zugangsdaten oder geschützte Informationen offenlegen kann, sollte sie zuerst minimiert, geschwärzt, anonymisiert oder in einer freigegebenen, kontrollierten Umgebung verarbeitet werden.[1][
2]
Der sicherste Maßstab ist nicht die Marke des KI-Tools, sondern vier Punkte: Sind die Daten sensibel? Wie speichert oder nutzt der Dienst die Daten? Hat die Organisation die Nutzung ausdrücklich erlaubt? Und kann man einen Vorfall nachvollziehen und bearbeiten? Wenn Datenaufbewahrung, Monitoring, Incident Response, Opt-out und risikobasierte Kontrollen nicht geklärt sind, sollte der Originaltext nicht hochgeladen werden.[2]
Personenbezogene Daten, Firmeninterna, Behördenakten: die Grundregel
| Datenart | Grundregel | Vor dem Hochladen prüfen |
|---|---|---|
| Personenbezogene Daten | Keine Originaltexte hochladen, wenn Personen erkennbar sind. Falls die Verarbeitung nötig ist: Daten minimieren, schwärzen oder anonymisieren und prüfen, ob Nutzungsbedingungen und interne Regeln das zulassen. | Der EDPB behandelt Datenschutzrisiken und Gegenmaßnahmen bei LLM-Systemen; NIST nennt Datenschutz, Datenaufbewahrung, Folgenabschätzung und Monitoring als Governance-Punkte für generative KI.[ |
| Betriebs- und Geschäftsgeheimnisse | Nicht in nicht freigegebene öffentliche KI-Dienste kopieren. Verträge, Kundenlisten, Ausschreibungs- oder Übernahmedaten, Rechtsdokumente, Quellcode, Schlüssel und Zugangsdaten sind Hochrisikoinhalte. | NIST deckt unter anderem kommerzielle Nutzung, Datenherkunft, Datenschutz, Datenaufbewahrung, Incident Response, Monitoring und sichere Softwareentwicklung ab.[ |
| Behördenunterlagen | Veröffentlichte, niedrig sensible und rechtmäßig nutzbare Informationen von internen Akten, Entwürfen, Untersuchungs-, Vollzugs- oder Vergabedaten trennen. Letztere gehören nicht in allgemein zugängliche KI. | Der JRC-Bericht der EU-Kommission behandelt generative KI im öffentlichen Sektor als eigenes Feld; eine Fallübersicht im Umfeld des Europäischen Parlaments erwähnt die Nutzung offizieller Bundestag-Daten bei gleichzeitiger Vermeidung personenbezogener oder sensibler Informationen.[ |
Fünf Fragen vor jedem Upload
Wenn Sie eine dieser Fragen nicht beantworten können, laden Sie den Originaltext nicht in ein allgemein zugängliches KI-Tool.
- Enthält der Inhalt personenbezogene oder sensible Informationen? Wenn Daten eine Person erkennbar machen oder Datenschutzrisiken auslösen können, sollte der Originaltext nicht direkt eingegeben werden. Der EDPB fokussiert genau solche Datenschutzrisiken und Gegenmaßnahmen bei LLM-Systemen.[
1]
- Speichert der Dienst Eingaben oder Ausgaben – und wenn ja, wie lange? Datenaufbewahrung ist ein eigener Punkt im NIST-Risikomanagement für generative KI.[
2]
- Werden die Daten kommerziell genutzt, weiterverarbeitet oder zur Verbesserung des Dienstes eingesetzt? Gibt es ein Opt-out? NIST nennt kommerzielle Nutzung, Datenschutz, Datenaufbewahrung und Opt-out-Möglichkeiten als Governance-Aspekte.[
2]
- Wer darf das Tool nutzen, und ist die Nutzung nachvollziehbar? NIST erwähnt Qualifikationen beziehungsweise Berechtigungen von KI-Akteuren, die Vermeidung anonymer Nutzung und Monitoring; praktisch heißt das: Eine Organisation muss wissen können, wer welche Daten wofür verwendet.[
2]
- Gibt es Folgenabschätzung, Incident Response und risikobasierte Kontrollen? Auch diese Punkte gehören zu den NIST-Anforderungen für generative KI-Governance.[
2]
Ein Satz im Prompt wie „Bitte vertraulich behandeln“ ist keine Sicherheitsmaßnahme. Entscheidend ist, wie Daten gespeichert werden, wer Zugriff erhält, ob Weiterverwendung ausgeschlossen werden kann, wer einen Vorfall bearbeitet und ob Ihre Organisation die Nutzung erlaubt.[2]
Ampel für den Alltag: grün, gelb, rot
Die folgende Einordnung übersetzt Datenschutz, Datenaufbewahrung und risikobasierte Kontrolle in eine praktische Prüflogik. Sie ersetzt keine Rechtsberatung und keine internen Vorgaben zu Informationssicherheit, Datenschutz, Aktenführung oder Geheimschutz.[1][
2]
Grün: möglich, aber Bedingungen prüfen
- Bereits veröffentlichte, niedrig sensible Informationen, die Sie verwenden dürfen.
- Inhalte, die so anonymisiert, gekürzt oder verändert wurden, dass Personen, Kunden, Fälle oder interne Geheimnisse nicht vernünftigerweise zurückverfolgt werden können.[
1]
- Eine knappe Problembeschreibung mit nur dem nötigen Kontext – nicht der komplette Vertrag, die ganze Behördenakte, die Kundentabelle oder das gesamte Code-Repository.[
2]
Wichtig: Öffentlich heißt nicht automatisch risikofrei. Wenn öffentliche Daten weiterhin personenbezogene oder sensible Informationen enthalten, gelten Datenschutz- und Schutzpflichten weiter.[1]
Gelb: erst schwärzen, umformulieren oder Freigabe einholen
- Unterlagen mit Informationen zu Kunden, Beschäftigten, Lieferanten, Verfahrensbeteiligten oder Bürgerinnen und Bürgern.[
1]
- Vertragsentwürfe, Finanzdaten, interne Präsentationen, Sitzungsprotokolle, Rechtsmeinungen oder politische Entwürfe.[
2]
- Quellcode, technische Dokumentation und Architekturdiagramme, besonders wenn Schlüssel, Zertifikate, Zugangsdaten oder Schwachstellen enthalten sein könnten; NIST nennt sichere Softwareentwicklung und risikobasierte Kontrollen als Governance-Punkte.[
2]
- Interne Behördenunterlagen, nicht veröffentlichte Akten, Vorlagen, Bewertungsunterlagen oder Dokumente für die Zusammenarbeit zwischen Behörden; bei generativer KI im öffentlichen Sektor bleiben personenbezogene und sensible Informationen ein zentrales Risiko.[
3][
11]
Solche Daten sind nicht zwingend für jede KI-Nutzung ausgeschlossen. Sie sollten aber nicht ohne Freigabe, Aufbewahrungsregeln, Monitoring und Incident-Response-Prozess in allgemein zugängliche KI-Dienste gelangen.[2]
Rot: nicht in allgemein zugängliche KI hochladen
- Daten, deren Weitergabe rechtlich oder nach internen Regeln verboten ist.
- Eingestufte oder als vertraulich/geheim behandelte Unterlagen sowie besonders sensible Informationen zu Sicherheit, Vollzug, Ermittlungen oder Vergabeverfahren.
- Passwörter, API-Keys, private Schlüssel, Zertifikate, Zugriffstoken oder alles, womit man Zugang zu Systemen erhalten könnte.
- Daten, deren Herkunft, Berechtigung, Speicherung, Löschung oder Weiterverwendung Sie nicht klären können.[
2]
Anonymisieren heißt mehr als Namen löschen
Nur den Namen zu entfernen, reicht oft nicht. Ausweis- oder Kundennummern, Telefonnummern, E-Mail-Adressen, Anschriften, Konten, Aktenzeichen, seltene Funktionen oder Kombinationen aus Datum und Ort können weiterhin auf eine bestimmte Person oder einen bestimmten Fall verweisen. Der EDPB behandelt gerade solche Datenschutzrisiken und Gegenmaßnahmen bei LLM-Systemen; vor einem Upload sollten daher identifizierende Merkmale, rückverfolgbare Details und nicht notwendige Felder entfernt oder umgeschrieben werden.[1]
Sicherer ist es, echte Namen und Firmennamen durch Platzhalter zu ersetzen, nur die nötigen Ausschnitte zu verwenden, den Fall abstrakt zu beschreiben, Listen und Tabellen vorher zu aggregieren und Originaldokumente nur in freigegebenen, kontrollierten Werkzeugen zu verarbeiten.[1][
2]
Behördenunterlagen: öffentlich ist nicht dasselbe wie intern
Für die öffentliche Verwaltung ist generative KI keine einfache Ja-oder-Nein-Frage. Der JRC-Bericht der Europäischen Kommission behandelt Anwendungen im öffentlichen Sektor als eigenes Themenfeld. In einer Fallübersicht im Umfeld des Europäischen Parlaments wird außerdem ein Beispiel erwähnt, das offizielle Bundestag-Daten nutzt und personenbezogene oder sensible Informationen vermeidet.[3][
11]
Eher geeignet sind veröffentlichte, niedrig sensible und rechtmäßig nutzbare amtliche Informationen. Besonders vorsichtig sollten Behörden und öffentliche Stellen bei nicht veröffentlichten Akten, internen Vorlagen, politischen Entwürfen, Untersuchungsdaten, Vollzugsdaten, Vergabeunterlagen und allen Dokumenten mit Personenbezug oder sensiblen Inhalten sein. Erstere müssen trotzdem auf Nutzungsbedingungen geprüft werden; letztere gehören nicht direkt in allgemein zugängliche KI-Tools.[1][
2][
3]
Die einfachste Entscheidungsregel
Wenn ein Datenabfluss Personen, Ihre Organisation, öffentliche Interessen oder die Einhaltung rechtlicher Vorgaben schädigen könnte, geben Sie den Originaltext nicht in allgemein zugängliche KI ein. Erst minimieren, schwärzen, anonymisieren oder zusammenfassen. Wenn die Aufgabe tatsächlich Originaldaten erfordert, nutzen Sie freigegebene Prozesse und kontrollierte Werkzeuge – mit geklärtem Datenschutz, Datenaufbewahrung, Zugriff, Monitoring und Incident Response.[1][
2]




