Die wichtigste Frage lautet nicht: Ist ChatGPT sicher? Sondern: Welche Daten wollen Sie eingeben, ist das im Unternehmen erlaubt, gibt es einen passenden Vertrag und braucht die Aufgabe wirklich den Originaltext?
Dieser Leitfaden stützt sich auf die öffentlich zugänglichen Datenschutz- und Unternehmensseiten von OpenAI. Wenn Ihr Unternehmen ein anderes KI-System nutzt, müssen dessen Bedingungen, die internen Richtlinien und mögliche Kunden- oder Branchenvorgaben separat geprüft werden.[5][
6][
7]
Kurz gesagt: Öffentliches Material eher ja, sensible Rohdaten eher nein
Wenn ein Text bereits öffentlich ist, keine personenbezogenen Daten enthält, keine Kundendaten nennt und keine unveröffentlichten Geschäftsinformationen verrät, kann ein KI-Tool sinnvoll sein — zum Beispiel für Zusammenfassungen, Formulierungen, Strukturierung oder erste Ideen. Auch dann gilt: Nur im Rahmen der internen KI-Richtlinie.
Anders sieht es aus bei Kundennamen, Telefonnummern, E-Mail-Adressen, Anschriften, Ausweis-, Konto- oder Zahlungsdaten, Vertragsinhalten, internen Finanzzahlen, Kundenlisten, Produktstrategien oder sonstigen Geschäftsgeheimnissen. Solche Inhalte sollten nicht im Original in ein privates Konto, ein allgemein genutztes Tool oder einen nicht freigegebenen KI-Dienst kopiert werden. OpenAI erklärt in seiner Datenschutzerklärung, dass personenbezogene Daten erfasst werden können, die Nutzer in die Dienste eingeben — einschließlich Prompts sowie hochgeladener Dateien, Bilder, Audio- und Videoinhalte.[5]
Enterprise-Angebote können Risiken verringern, sind aber kein Freifahrtschein für beliebige Daten. OpenAI schreibt, dass ChatGPT Business, ChatGPT Enterprise und die API Platform den Kunden Eigentum und Kontrolle über Geschäftsdaten, also Eingaben und Ausgaben, geben sollen. Zudem kann OpenAI nach eigenen Angaben mit Kunden ein Data Processing Addendum, kurz DPA, abschließen, um Compliance-Anforderungen wie die DSGVO zu unterstützen.[7] OpenAI nennt außerdem Datenaufbewahrungsrichtlinien, Enterprise Key Management und Datenschutzpraktiken, die die Einhaltung von GDPR/DSGVO, CCPA und weiteren Datenschutzanforderungen unterstützen und an Sicherheits- und Compliance-Frameworks ausgerichtet sind.[
6]
Erst klassifizieren, dann kopieren
| Datentyp | Beispiele | Sicherere Vorgehensweise |
|---|---|---|
| Öffentliche oder wenig sensible Inhalte | veröffentlichte Webtexte, allgemeine Marktnotizen, Entwürfe ohne interne Zahlen | Nutzung nach Unternehmensrichtlinie möglich; keine unnötigen internen Hintergründe ergänzen. |
| Personenbezogene Kundendaten | Name, Telefon, E-Mail, Adresse, Ausweis-, Konto- oder Zahlungsdaten | Nicht im Original eingeben; erkennbare Merkmale entfernen oder ersetzen und nur den für die Aufgabe nötigen Inhalt verwenden.[ |
| Geschäftsgeheimnisse | unveröffentlichte Umsätze, Angebote, Vertragsklauseln, Roadmaps, interne Strategien | Mit Zusammenfassungen, Platzhaltern oder anonymisierten Versionen arbeiten; Originale nur in freigegebenen Unternehmensumgebungen verarbeiten. |
| Kundenlisten und Vertriebsdaten | CRM-Exporte, Lead-Listen, Deal-Status, unbearbeitete Beschwerden | Keine kompletten Exporte hochladen; nur minimale, anonymisierte Ausschnitte verwenden. |
| Besonders regulierte oder heikle Daten | Gesundheits-, Identitäts-, Zahlungs-, Mitarbeiter- oder Kundendossiers | Ohne Freigabe nicht eingeben; zuerst IT, Datenschutz, Rechtsabteilung, Compliance oder Vorgesetzte einbeziehen. |
Warum auch ein kurzer Prompt heikel sein kann
Viele Teams unterscheiden intuitiv zwischen Dokument hochladen und nur kurz Text einfügen. Aus Datenschutzsicht ist diese Grenze weniger beruhigend, als sie wirkt. Ein Prompt ist ebenfalls eine Diensteingabe. OpenAI führt in seiner Datenschutzerklärung ausdrücklich auf, dass personenbezogene Daten in Nutzereingaben erfasst werden können, einschließlich Prompts und hochgeladener Inhalte.[5]
Daraus folgt ein Grundsatz, der auch außerhalb von KI gilt: Datenminimierung. Geben Sie nicht den ganzen Fall ein, wenn eine Zusammenfassung reicht. Laden Sie keine komplette Datei hoch, wenn drei neutralisierte Stichpunkte genügen. Entfernen Sie Namen, Nummern und interne Kennzeichen, bevor Sie ein Tool befragen.
Enterprise-Kontrollen helfen — aber sie entscheiden nicht alles
OpenAI beschreibt für Unternehmensangebote Kontroll- und Eigentumszusagen für Geschäftsdaten, einschließlich Eingaben und Ausgaben aus ChatGPT Business, ChatGPT Enterprise und der API Platform. Außerdem nennt OpenAI die Möglichkeit, ein Data Processing Addendum zur Unterstützung von DSGVO- und anderen Datenschutzanforderungen abzuschließen.[7] Auf der Business-Data-Seite verweist OpenAI zusätzlich auf Datenaufbewahrungsrichtlinien, Enterprise Key Management und Datenschutzpraktiken zur Unterstützung von GDPR/DSGVO, CCPA und weiteren Sicherheits- und Compliance-Rahmenwerken.[
6]
Das ist wichtig, aber nicht ausreichend. Ein Unternehmen muss trotzdem festlegen, welche Daten überhaupt in KI-Systeme dürfen, welche vorher anonymisiert werden müssen, welche Daten tabu sind, wer Zugriff erhält und wie Vorfälle gemeldet werden.
Ein gutes Kontrollpaket beantwortet also nicht automatisch die Frage: Darf dieser konkrete Kundenfall in den Prompt? Es schafft nur die Umgebung, in der eine freigegebene Verarbeitung besser gesteuert werden kann.
Vier Fragen vor dem Absenden
1. Enthält der Text personenbezogene Daten oder Kundendaten?
Alles, was eine Person direkt oder indirekt identifizieren kann, sollte als riskant gelten. Dazu zählen nicht nur Name und E-Mail-Adresse, sondern auch Telefonnummern, Anschriften, Kundennummern, Bestellnummern, Fallakten, Kontodaten, Zahlungsinformationen oder Kombinationen aus mehreren Details. Entfernen oder ersetzen Sie solche Angaben, bevor Sie prüfen, ob die KI-Aufgabe noch sinnvoll möglich ist. Das passt zu dem Grundsatz, dass Prompts und Uploads Diensteingaben sind.[5]
2. Ist der Inhalt vertraulich für das Unternehmen?
Auch ohne personenbezogene Daten kann ein Text sensibel sein: Angebotskalkulationen, Vertragspositionen, unveröffentlichte Umsätze, interne Prozesse, Produktpläne oder Kundenlisten sind nicht automatisch KI-tauglich, nur weil keine Privatperson genannt wird. Die entscheidende Frage lautet: Darf diese Information die bisherige kontrollierte Umgebung verlassen?
3. Nutzen Sie eine freigegebene Unternehmensumgebung?
Private Konten, kostenlose Standardtools oder nicht geprüfte externe Dienste sollten nicht als Arbeitsumgebung für Unternehmensdaten behandelt werden. Wenn echte Geschäftsdaten verarbeitet werden müssen, sollte dies nur mit einem vom Unternehmen freigegebenen Dienst geschehen — inklusive passender Verträge, Rollen- und Zugriffskonzepte sowie geprüfter Aufbewahrungs- und Sicherheitskontrollen. Bei OpenAI werden dafür unter anderem DPA, Datenaufbewahrungsrichtlinien und Enterprise Key Management als relevante Bausteine genannt.[6][
7]
4. Braucht die Aufgabe wirklich den Originaltext?
Oft nicht. Für eine Antwort auf eine Kundenbeschwerde reichen häufig die neutralisierten Kerndaten: Was ist passiert, welche Tonalität ist gewünscht, welche nächste Maßnahme ist erlaubt? Dafür braucht ein KI-Tool meist weder den echten Namen noch Adresse, Telefonnummer, Bestellnummer oder den kompletten Vertrag.
Ein sichererer Arbeitsablauf
1. Richtlinie prüfen. Gibt es im Unternehmen Regeln zur KI-Nutzung, Datenklassifizierung, Vertraulichkeit, Kundenverträgen oder Branchen-Compliance? Wenn Sie unsicher sind, nicht nach Bauchgefühl entscheiden.
2. Datenart bestimmen. Enthält der Inhalt personenbezogene Daten, Kundendaten, interne Zahlen, Verträge, Zahlungsinformationen, Identitätsdaten oder Geschäftsgeheimnisse? Bei Ja oder Unsicherheit: als hochriskant behandeln.
3. Minimieren und anonymisieren. Nicht den Originaltext verwenden, wenn eine Zusammenfassung reicht. Nicht die ganze Datei hochladen, wenn ein Auszug genügt. Namen, Firmennamen, Telefonnummern, E-Mails, Adressen, Konto-, Bestell- und Fallnummern durch neutrale Platzhalter ersetzen, etwa Kunde A, Lieferant B oder Bestellung 123.
4. Sensible Daten nur in freigegebenen Umgebungen verarbeiten. Wenn Geschäftsdaten im Original nötig sind, sollte das nur über eine genehmigte Unternehmenslösung mit passenden vertraglichen und technischen Kontrollen laufen. Dazu können je nach Setup DPA, Aufbewahrungsregeln, Enterprise Key Management und weitere Governance-Maßnahmen gehören.[6][
7]
5. Im Zweifel eskalieren. Bei Kunden-, Mitarbeiter-, Identitäts-, Zahlungs-, Gesundheits-, Vertrags-, Finanz- oder Strategiedaten zuerst IT, Datenschutz, Rechtsabteilung, Compliance oder die zuständige Führungskraft fragen.
Prompt-Beispiel: riskant vs. besser
So lieber nicht:
Hier ist die komplette Beschwerde-E-Mail des Kunden samt Name, Telefonnummer, Adresse, Bestellnummer und Vertragsauszug. Schreib mir eine Antwort.
Besser:
Hier ist eine anonymisierte Zusammenfassung einer Kundenbeschwerde. Kunde A meldet, dass ein Produkt 10 Tage verspätet geliefert wurde und verlangt eine Rückerstattung. Bitte formuliere eine höfliche Antwort, die das Problem anerkennt und einen nächsten Schritt vorschlägt. Füge keine Fakten hinzu, die nicht genannt wurden.
Diese zweite Variante macht die Nutzung nicht risikofrei. Sie reduziert aber unnötige Offenlegung von personenbezogenen Daten und internen Informationen. Gerade weil OpenAI beschreibt, dass personenbezogene Daten in Diensteingaben wie Prompts und Uploads erfasst werden können, ist Datenminimierung ein grundlegender Schutzmechanismus.[5]
Bedeutet Enterprise: Alles darf hinein?
Nein. Enterprise- oder API-Lösungen können zusätzliche Vertrags-, Aufbewahrungs- und Verwaltungsfunktionen bieten. OpenAI erklärt, dass die betreffenden Unternehmensdienste Kunden Eigentum und Kontrolle über Geschäftsdaten geben sollen und dass ein DPA zur Unterstützung von DSGVO- und anderen Datenschutzanforderungen möglich ist.[7] OpenAI nennt außerdem Enterprise Key Management, Datenaufbewahrungsrichtlinien und Datenschutzpraktiken zur Unterstützung von GDPR/DSGVO, CCPA und bestimmten Sicherheits- und Compliance-Frameworks.[
6]
Aber diese Kontrollen sind nur ein Teil des Risikomanagements. Sie beantworten nicht automatisch, ob ein bestimmter Vertrag, ein bestimmter Kundenvorgang oder eine bestimmte Finanzübersicht in einen Prompt gehört. Diese Entscheidung muss aus Datenklassifizierung, Rechtsgrundlage, Kundenvereinbarungen, interner Policy und technischem Setup gemeinsam abgeleitet werden.
Schnelle Checkliste vor dem Kopieren
Bevor Sie Unternehmens- oder Kundendaten in ChatGPT oder ein anderes KI-Tool eingeben, prüfen Sie:
- Die Unternehmensrichtlinie erlaubt diesen Zweck.
- Der Inhalt enthält keine personenbezogenen Kundendaten — oder sie wurden wirksam entfernt.
- Der Inhalt enthält keine Geschäftsgeheimnisse — oder die Verarbeitung wurde ausdrücklich freigegeben.
- Es wird nur das Minimum eingegeben, nicht die komplette Originaldatei.
- Das Tool ist vom Unternehmen genehmigt, nicht nur privat bequem verfügbar.
- Bei einer Unternehmenslösung sind DPA, Datenaufbewahrung und relevante technische Kontrollen geprüft.[
6][
7]
- Bei Unsicherheit wurden IT, Datenschutz, Rechtsabteilung, Compliance oder Vorgesetzte einbezogen.
Als Faustregel gilt: Öffentliche und wenig sensible Inhalte können nach Policy mit KI bearbeitet werden. Sobald es um Kunden, Verträge, Finanzen, Identität, Zahlungen, unveröffentlichte Geschäftsdaten oder Geschäftsgeheimnisse geht, sollten Sie keine Rohdaten in allgemeine oder nicht freigegebene KI-Tools kopieren. Erst minimieren, anonymisieren und nur in einer genehmigten, kontrollierten Umgebung arbeiten.[5][
6][
7]




