KI-gestützte Cyberangriffe sind kein Grund für Aktionismus, aber ein klarer Auftrag an die Unternehmensführung. Zusätzliche Sicherheitstools allein reichen nicht. Das britische National Cyber Security Centre, kurz NCSC, bezeichnet Cyberrisiken ausdrücklich nicht mehr als reine IT-Frage, sondern als Priorität für den Vorstand beziehungsweise das Board: Angriffe können den Betrieb unterbrechen, Reputation beschädigen sowie finanzielle und rechtliche Folgen auslösen[1].
Das Weltwirtschaftsforum, international als WEF bekannt, beschreibt denselben Druck aus Unternehmenssicht: Im Global Cybersecurity Outlook 2025 berichten 72 % der befragten Organisationen von steigenden Cyberrisiken; fast 47 % nennen durch generative KI verstärkte Fähigkeiten von Angreifern als zentrale Sorge[6].
Die wichtigste Leitfrage für CEO, Geschäftsführung, Vorstand und Aufsichtsgremien lautet deshalb nicht: Können wir jeden Angriff verhindern? Sondern: Können wir einen Angriff früh erkennen, begrenzen und unsere wichtigsten Leistungen schnell genug wiederherstellen? Das NCSC fordert genau diesen Perspektivwechsel: Organisationen sollen sich auf das konzentrieren, was sie in der Verteidigung kontrollieren können, und zugleich auf das vorbereitet sein, was sich nicht vollständig kontrollieren lässt[3].
Der Perspektivwechsel: Resilienz statt Sicherheitsversprechen
In der KI-Ära ist Cybersicherheit kein isoliertes Technikprogramm. Sie verbindet Prävention, Erkennung, Eindämmung, Wiederanlauf, Kommunikation und Verantwortung. Das NCSC beschreibt Cyberresilienz als strategische Fähigkeit von Führungskräften, Angriffe vorzubereiten, darauf zu reagieren und sich davon zu erholen[1].
Für die Unternehmensspitze heißt das: Die Diskussion darf nicht bei Firewalls, Lizenzen oder Toolnamen stehen bleiben. Entscheidend sind die geschäftlichen Auswirkungen. Welche Prozesse dürfen höchstens wenige Stunden ausfallen? Welche Systeme stützen Umsatz, Kundenservice, Produktion, Zahlungsverkehr, regulatorische Pflichten oder Marktkommunikation? Wie groß ist die Lücke zwischen maximal tolerierbarer Ausfallzeit und der tatsächlich getesteten Wiederanlaufzeit? Bei Szenarien wie Ransomware, Cloud-Ausfall, kompromittierter Identitätsplattform oder Ausfall eines kritischen Dienstleisters muss klar sein, wer wann welche Entscheidung trifft[1][
3].
KI ist dabei doppelt relevant: Angreifer nutzen sie, aber auch die eigene KI-Einführung wird zum Risikofeld. Das WEF empfiehlt Führungskräften und Senior Risk Ownern, bei KI-Projekten mögliche Schwachstellen, geschäftliche Auswirkungen, notwendige Kontrollen und verbleibende Restrisiken systematisch zu bewerten[5].
Sieben Entscheidungen für die ersten 90 Tage
1. Cyberrisiko als ständigen Tagesordnungspunkt behandeln
Cyberrisiko gehört nicht nur einmal im Quartal als technischer Bericht in die Sitzung. Es sollte als Geschäfts-, Rechts-, Finanz- und Reputationsrisiko behandelt werden. Das NCSC macht deutlich, dass Cybervorfälle Betrieb, Reputation sowie finanzielle und rechtliche Lage treffen können[1]. Auch bei Unternehmensberichten wird die Aufsicht über KI und Cyberrisiken sichtbarer: Eine Analyse zu Offenlegungen im Jahr 2025 beschreibt, dass Angaben zur Cyber- und KI-Aufsicht häufiger und detaillierter werden[
4].
Aufsichtsgremien sollten deshalb nicht primär die Zahl gekaufter Sicherheitsprodukte sehen. Wichtiger sind Risiken für kritische Geschäftsprozesse, nicht behobene schwere Schwachstellen, privilegierte Identitäten, Zeiten für Erkennung, Eindämmung und Wiederherstellung sowie der Kontrollstand der eigenen KI-Nutzung[1][
5]. Das WEF nennt ausdrücklich die Festlegung der Risikotoleranz für KI-Technologien als Führungsfrage[
6].
2. Kritische Prozesse und Wiederanlaufzeiten beziffern
Je schneller und überzeugender Angriffe werden, desto wichtiger wird eine nüchterne Priorisierung. CEO und Vorstand sollten für jeden kritischen Prozess wissen: Wie lange darf er ausfallen? Welche manuelle oder alternative Lösung gibt es? Wer verantwortet den Wiederanlauf? Wer informiert Kunden, Behörden, Partner oder Kapitalmarkt, falls das erforderlich wird?[1][
3]
Backups sind nur dann ein belastbarer Schutz, wenn sie im Ernstfall auch funktionieren. Die Unternehmensleitung sollte nicht nur fragen, ob Sicherungen existieren, sondern ob sie ausreichend getrennt, vor Manipulation geschützt und regelmäßig auf echte Wiederherstellung getestet werden. Das folgt aus dem Resilienzgedanken des NCSC: Unternehmen müssen auch für Situationen planen, die sie nicht vollständig kontrollieren können[3].
3. KI in der Verteidigung nutzen, aber am Ergebnis messen
Wenn Angreifer generative KI für Geschwindigkeit, Skalierung und Täuschung einsetzen, sollte die Verteidigung ebenfalls Automatisierung und KI prüfen: etwa bei Priorisierung von Warnmeldungen, Anomalieerkennung, Untersuchung von Vorfällen oder Unterstützung im Security Operations Center. Gleichzeitig warnt das WEF davor, KI-Einführung ohne passende Kontrollen zu betreiben; Risiken, geschäftliche Auswirkungen, Kontrollen und Restrisiken müssen bewertet werden[5][
6].
Für das Board zählt daher nicht die Frage, ob ein KI-Tool beschafft wurde. Entscheidend ist, ob sich messbare Ergebnisse verbessern: kürzere Erkennungszeit, schnellere Eindämmung, weniger unbearbeitete Alarme, nachvollziehbare Audit-Logs, klare Verantwortlichkeiten und ein kontrollierter Umgang mit Ausnahmen[1][
5].
4. Eigene KI-Nutzung und Datenzugriff kontrollieren
Das Risiko liegt nicht nur bei Angreifern. Auch die eigene KI-Nutzung kann Datenabfluss, übermäßige Berechtigungen, nicht nachvollziehbare Entscheidungen oder fehlerhafte Ergebnisse begünstigen. Das WEF empfiehlt, bei KI-Adoption die entstehenden Schwachstellen, die möglichen negativen Auswirkungen auf das Geschäft, erforderliche Kontrollen und verbleibende Restrisiken zu bewerten[5].
Eine gemeinsame Cybersecurity-Information, veröffentlicht über eine US-Verteidigungsseite, betont zudem, dass der Schutz von Daten in KI- und Machine-Learning-Systemen entscheidend für Genauigkeit und Integrität der KI-Ergebnisse ist[2]. Deshalb sollten Geschäftsleitung und Aufsicht klare Regeln verlangen: Welche internen KI-Systeme, externen KI-Dienste und LLM-Anwendungen sind erlaubt? Welche Daten dürfen eingegeben werden? Wer hat Zugriff auf Trainingsdaten, Prompts, Protokolle, Vektor-Datenbanken, RAG-Datenbestände und Modellgewichte? Und wie werden Änderungen nachvollziehbar dokumentiert?[
2][
5]
5. Den CISO mit echter Entscheidungsbefugnis ausstatten
Ein Chief Information Security Officer, kurz CISO, kann KI-beschleunigte Risiken kaum steuern, wenn er zwar verantwortlich ist, aber gefährliche Ausnahmen nicht stoppen, Budgets nicht beeinflussen und Risiken nicht direkt an die Spitze eskalieren kann. Wenn Cyberrisiko ein Board-Thema ist, muss der CISO Geschäftsrisiken verständlich und regelmäßig in die Unternehmensführung tragen können[1].
Das Aufsichtsgremium sollte prüfen, ob der CISO gefährliche Systemänderungen anhalten, Sicherheitsausnahmen ablehnen, KI-Projekte vor Einführung prüfen, die Behebung kritischer Schwachstellen einfordern und bei Drittparteirisiken mitentscheiden kann. Der vom WEF beschriebene Ansatz zur Steuerung von KI-Cyberrisiken setzt ebenfalls voraus, dass Risiken, Kontrollen und Restrisiken auf Führungsebene bewertet werden[5].
6. Lieferkette, Cloud und SaaS bis in die Verträge prüfen
KI-Cyberrisiken enden nicht an der eigenen Netzwerkgrenze. Das NCSC verweist auf die Notwendigkeit, Resilienz auch über Lieferketten hinweg zu stärken[3]. Für viele Unternehmen gehören SaaS-Anbieter, Managed Service Provider, Cloud-Plattformen, Entwicklungsdienstleister, Datenverarbeiter und wichtige Tochtergesellschaften zu den kritischsten Abhängigkeiten[
3][
5].
Bei wesentlichen Dienstleistern sollten Verträge nicht nur Preis und Verfügbarkeit regeln. Relevant sind Authentifizierungsanforderungen, Protokollzugriff, Fristen für Vorfallmeldungen, Regeln zur KI-Nutzung, Datenschutz, Backups, Audit-Rechte und Mitwirkungspflichten beim Wiederanlauf. Je später ein Unternehmen Meldungen oder Logs erhält, desto später kann es Eindämmung und Wiederherstellung steuern[3][
5].
7. Board-KPIs von Fallzahlen auf Resilienz umstellen
Die reine Zahl der Vorfälle sagt wenig darüber aus, ob ein Unternehmen widerstandsfähiger wird. Das Board braucht Kennzahlen, die zeigen, wie schnell Risiken erkannt, begrenzt und behoben werden und ob kritische Leistungen tatsächlich wieder anlaufen können[1][
3].
| Bereich | Kennzahlen für Geschäftsleitung und Aufsicht |
|---|---|
| Geschäftskontinuität | Maximal tolerierbare Ausfallzeit je kritischem Prozess, getestete Wiederanlaufzeit, verfügbare Ausweichverfahren[ |
| Erkennung, Eindämmung, Wiederanlauf | Zeit bis zur Erkennung, Zeit bis zur Eindämmung, Zeit bis zur Wiederherstellung, Zeit bis zur Managemententscheidung[ |
| Identitäten und Zugriffe | Zahl privilegierter Konten, inaktive Konten, Ausnahmen bei Zugriffsrechten, Kontrollen für besonders kritische Konten[ |
| Schwachstellen und Assets | Nicht behobene kritische Schwachstellen, überfällige Maßnahmen, Transparenz über öffentlich erreichbare Systeme[ |
| Backups | Getrennte und geschützte Sicherungen, Erfolgsquote von Wiederherstellungstests, tatsächlich benötigte Wiederherstellungszeit[ |
| KI-Governance | Inventar genutzter KI-Tools, Ausnahmen für sensible Daten, Prüfquote neuer KI-Anwendungen vor Einführung[ |
| Drittparteirisiken | Sicherheitsanforderungen an wichtige Dienstleister, Meldefristen bei Vorfällen, Log-Zugriff, Abhängigkeiten beim Wiederanlauf[ |
Der 90-Tage-Fahrplan
Tag 0 bis 30: Risiken sichtbar machen
- Eine Sonderbefassung zu KI-Cyberrisiken in Geschäftsleitung und Aufsicht ansetzen[
1][
5].
- Kritische Geschäftsprozesse erfassen und für jeden Prozess die maximal tolerierbare Ausfallzeit mit der realistisch getesteten Wiederanlaufzeit vergleichen[
1][
3].
- Den CISO beauftragen, eine Risikobewertung vorzulegen, die sowohl generative KI auf Angreiferseite als auch die eigene KI-Nutzung abdeckt[
5][
6].
- Die Eingabe vertraulicher Daten in nicht freigegebene KI-Tools stoppen und ein Verfahren für begründete Ausnahmen festlegen[
2][
5].
Tag 31 bis 60: Kontrollen und Wiederanlauf härten
- Authentifizierung und Zugriffsrechte zuerst bei Vorständen, Geschäftsführung, Administratoren und privilegierten Identitäten verschärfen[
1][
5].
- Einen Ransomware-Fall simulieren und den Wiederanlauf aus geschützten Backups praktisch testen. Das WEF nennt Ransomware im Ausblick 2025 weiterhin als zentrale Sorge[
6].
- Kritische Dienstleister priorisieren und Vertragsbedingungen zu Logs, Vorfallmeldungen, KI-Nutzung, Datenschutz und Wiederanlaufunterstützung prüfen[
3][
5].
Tag 61 bis 90: Üben, messen, nachhalten
- Eine Managementübung durchführen, an der CEO beziehungsweise Geschäftsführung, Finanzleitung, Rechtsabteilung, Kommunikation, CISO und betroffene Geschäftsbereiche teilnehmen[
1][
3].
- Erkennungszeit, Eindämmungszeit, Wiederanlaufzeit, offene kritische Schwachstellen und KI-Nutzungsprüfungen in ein Board-Dashboard aufnehmen[
1][
5].
- Berichtslinie, Eskalationsrechte, Stopprechte, KI-Prüfbefugnisse und Budget des CISO überprüfen und als wiederkehrenden Punkt in der Aufsicht verankern[
1][
5].
Fragen, die in jede Sitzung gehören
- Ist unsere Risikotoleranz für KI-Technologien klar festgelegt und kommuniziert[
6]?
- Wenn ein kritischer Prozess ausfällt, wer startet innerhalb welcher Frist Kundenkommunikation, rechtliche Bewertung und öffentliche Kommunikation[
1][
3]?
- Wer darf Daten verändern, die in KI- oder Machine-Learning-Systemen genutzt werden, und wie prüfen wir deren Integrität[
2]?
- Kann der CISO gefährliche Ausnahmen und nicht behobene Risiken direkt an Geschäftsleitung und Aufsicht eskalieren[
1][
5]?
- Wenn ein wichtiger Dienstleister kompromittiert wird, wie schnell erkennen wir das und wie schnell können wir auf Alternativen umschalten[
3][
5]?
Die Konsequenz ist einfach, aber unbequem: Die Unternehmensführung sollte keine absolute Sicherheit versprechen. Ihre Aufgabe ist es, Risikotoleranz zu definieren, dem CISO Mandat und Ressourcen zu geben, kritische Prozesse zu priorisieren und den Wiederanlauf regelmäßig zu testen. Im KI-Zeitalter zählt nicht, ob ein Angriff theoretisch möglich ist. Entscheidend ist, ob das Unternehmen ihn rechtzeitig erkennt, den Schaden begrenzt, handlungsfähig bleibt und gegenüber Kunden, Behörden und Markt nachvollziehbar erklären kann, was passiert ist und was getan wird[1][
3][
5].




