KI-Videos gelingen am besten, wenn Sie den Vorgang wie eine kleine Produktion behandeln: mit Briefing, Entwurf, Korrekturschleife, Schnitt und einem Rechtecheck vor der Veröffentlichung. Aktuelle Werkzeuge können Videos aus Textbeschreibungen und Referenzbildern erzeugen; in manchen Workflows lassen sich auch vorhandene Clips bearbeiten oder verlängern. Die OpenAI-Dokumentation zur Sora API beschreibt solche Funktionen, Adobe Firefly unterstützt die Videoerzeugung aus Text und Bildern.[1][
3]
Erst klären: Starten Sie mit Prompt, Bild oder Clip?
Der Ausgangspunkt entscheidet darüber, wie Sie den Prompt schreiben und welches Werkzeug sinnvoll ist. Öffnen Sie also nicht einfach einen Generator und tippen Sie einen vagen Satz ein. Klären Sie zuerst, welches Material Sie bereits haben.
| Ausgangsmaterial | Passender Modus | Wann sinnvoll? |
|---|---|---|
| Eine Idee in Worten | Text-to-Video | Wenn eine neue Szene aus Beschreibung entstehen soll: Hintergrund, kurzer Social-Clip, Produktillustration, Intro oder Mood-Video.[ |
| Produktfoto, Key Visual, statisches Storyboard | Image-to-Video | Wenn Komposition oder Hauptmotiv erhalten bleiben und nur Bewegung hinzukommen soll; die Sora API beschreibt Referenzbilder als Startbild, Firefly bietet Workflows für Video aus Bildern.[ |
| Vorhandener Clip | Edit/Extend | Wenn eine Szene angepasst, weitergeführt oder verlängert werden soll; diese Möglichkeit wird in der Sora-API-Dokumentation genannt.[ |
Beim Tool-Vergleich lohnt sich der Blick auf die offiziellen Produktseiten. Google Vids gibt an, Videos mit Veo 3 direkt aus Prompts in Google Vids erzeugen zu können.[2] Adobe verweist außerdem auf Firefly-Workflows beziehungsweise Produktseiten für Google Veo, Runway Gen-4.5 und OpenAI Sora 2/Sora 2 Pro.[
4][
5][
11]
Die Prompt-Formel: Schreiben wie ein kleines Drehbriefing
Ein guter Video-Prompt beschreibt nicht nur, was zu sehen ist, sondern auch, wie es gefilmt werden soll. Eine robuste Formel lautet:
Motiv + Handlung + Umgebung + Bildausschnitt/Kamerabewegung + Licht + Stimmung/Stil + Dauer oder Seitenverhältnis.
Das passt zu den offiziellen Hinweisen: OpenAI empfiehlt, Bildausschnitt, Motiv, Handlung, Umgebung und Licht klar zu beschreiben; Adobe rät ebenfalls dazu, Subject, Action, Place, Mood oder Style im Prompt zu nennen.[1][
3]
Zu allgemein:
- „Eine Person läuft durch eine regnerische Straße.“
Deutlich brauchbarer:
- „Totale einer fiktiven Figur, die nachts durch eine regennasse Straße läuft, Neonlichter spiegeln sich auf dem Asphalt, langsame Dolly-Bewegung nach vorn, filmisches Licht, ruhige melancholische Stimmung, natürliche Bewegung, 8 Sekunden.“
Bei einem Produktbild sollte der Prompt das Bild ausdrücklich als Anker setzen:
- „Dieses Produktfoto als erstes Bild verwenden. Langsamer Push-in der Kamera, weiches Studiolicht, hochwertige minimalistische dunkle Kulisse, dezente Reflexionen auf der Oberfläche, Form und Proportionen des Produkts nicht verändern.“
Der 6-Schritte-Workflow für ein KI-Video, das man veröffentlichen kann
Schritt 1: Ziel und Ausspielort festlegen
Definieren Sie, wofür das Video gedacht ist, wo es erscheinen soll und was die Zuschauerinnen und Zuschauer in den ersten Sekunden verstehen müssen. Ein kurzer Clip für Reels, Shorts oder TikTok braucht eine andere Dramaturgie als ein Produktvideo, ein internes Schulungsvideo oder eine ruhige Hintergrundszene für eine Präsentation.
Schritt 2: Den passenden Erzeugungsmodus wählen
Nutzen Sie Text-to-Video, wenn Sie nur eine Idee in Worten haben. Nutzen Sie Image-to-Video, wenn ein Produktfoto, Key Visual oder Storyboard die Szene prägen soll. Nutzen Sie Edit/Extend, wenn Sie einen vorhandenen Clip weiterverarbeiten möchten und das gewählte Tool diesen Workflow unterstützt.[1][
3]
Schritt 3: Den ersten Prompt ausreichend konkret schreiben
Der erste Prompt sollte Motiv, Handlung, Umgebung, Kamera, Licht und Stimmung enthalten. Damit wird aus einer groben Idee ein visuelles Briefing, mit dem ein Videomodell deutlich mehr anfangen kann.[1][
3]
Schritt 4: Erst einen kurzen Entwurf rendern
Beginnen Sie nicht mit der längsten oder größten Ausgabe. Die OpenAI-Dokumentation empfiehlt für Prompt-Schleifen kurze Clips und kleinere Ausgaben, weil längere Videos oder 1080p-Output deutlich mehr Zeit benötigen.[1]
Schritt 5: Nur eine Sache auf einmal ändern
Nach jedem Entwurf sollten Sie gezielt nur eine Gruppe von Parametern ändern: Kamera, Handlung, Licht, Umgebung oder Stimmung. Wenn Sie alles gleichzeitig umschreiben, wissen Sie anschließend kaum, welche Änderung das Ergebnis verbessert oder verschlechtert hat.
Schritt 6: Finale Version exportieren und nachbearbeiten
Wenn die Szene inhaltlich und visuell stimmt, rendern Sie die bestmögliche Fassung und gehen in die Nachbearbeitung: Voiceover, Musik, Soundeffekte, Untertitel, Logo, Schnitt rhythmus und gegebenenfalls Call-to-Action. Die OpenAI-Dokumentation nennt sora-2-pro als besser geeignet für hochwertige Ausgaben und 1080p und beschreibt den MP4-Download nach Abschluss eines Jobs.[1]
Wenn das Ergebnis nicht passt: Prompt gezielt reparieren
KI-Video braucht meist mehrere Runden. Schreiben Sie den Prompt nicht jedes Mal komplett neu, sondern diagnostizieren Sie den Fehler.
- Bewegung wirkt unnatürlich: Beschreiben Sie die Handlung konkreter, etwa „langsame Schritte, eine Hand hält einen Becher, der Mantel bewegt sich leicht im Wind“.
- Kamera trifft nicht die Idee: Ergänzen Sie Bildausschnitt und Bewegung, zum Beispiel „wide shot“, „close-up“, „slow push-in“ oder „dolly forward“.
- Licht passt nicht zur Stimmung: Nennen Sie Lichtquelle und Wirkung, etwa „weiches Studiolicht“, „warmes Abendlicht“ oder „Neonreflexe auf nassem Asphalt“.
- Produkt oder Figur verändern sich zu stark: Wenn ein Ausgangsbild wichtig ist, wechseln Sie zu Image-to-Video und nutzen Sie das Bild als Referenzpunkt.[
1][
3]
- Die Szene bekommt unerwünschte Details: Ergänzen Sie Einschränkungen wie „keine neuen Figuren hinzufügen“, „minimalistischen Hintergrund beibehalten“ oder „Farbpalette konsistent halten“.
Nachbearbeitung: Aus dem KI-Clip wird erst jetzt ein Video
Ein schöner KI-Clip ist noch nicht automatisch ein fertiges Video. Nach der Bilderzeugung kommen die Ebenen, die für Veröffentlichung und Verständlichkeit entscheidend sind:
- Voiceover: Erklärung, Produkttext, Erzählerstimme oder kurze Moderation.
- Musik und Soundeffekte: Verwenden Sie nur Audio, für das Sie die nötigen Rechte haben. Die OpenAI-Dokumentation nennt, dass urheberrechtlich geschützte Figuren und Musik in diesem Workflow abgelehnt werden können.[
1]
- Untertitel: Gerade bei kurzen Social-Clips wichtig, weil viele Menschen Videos zunächst ohne Ton sehen.
- Schnitt und Branding: Mehrere Clips kombinieren, Tempo setzen, Titel, Logo oder Handlungsaufforderung ergänzen.
Adobe Firefly ist eines der Werkzeuge, die für KI-Videoerzeugung aus Text und Bildern beschrieben werden; die Endkontrolle bleibt trotzdem ein eigener Schritt vor dem Export.[3]
Rechte und Richtlinien vor dem Hochladen prüfen
Für private Experimente ist dieser Schritt hilfreich. Für Marken, Werbung oder monetarisierte Inhalte ist er Pflicht.
Adobe erklärt, dass Videos, die mit dem Firefly-Modell erzeugt werden, für kommerzielle Zwecke sicher nutzbar seien.[3] Wenn Sie jedoch Partner-Modelle oder andere Tools verwenden, prüfen Sie die Bedingungen des konkreten Modells. Adobe führt eigene Seiten beziehungsweise Hilfen für Google Veo, Runway Gen-4.5 und OpenAI Sora innerhalb von Firefly.[
4][
5][
11]
Für die OpenAI Sora API nennt die Dokumentation wichtige Inhaltsgrenzen: keine Erzeugung echter Personen, einschließlich Prominenter; urheberrechtlich geschützte Figuren und Musik werden abgelehnt; Eingabebilder mit menschlichen Gesichtern werden in diesem Workflow ebenfalls blockiert.[1]
Eine Mindest-Checkliste vor der Veröffentlichung:
- Kommen echte Personen, erkennbare Gesichter, Stimmen oder identifizierbare Figuren vor?
- Enthält das Video Musik, Soundeffekte, Logos, Bilder oder Charaktere, deren Rechte bei Dritten liegen?
- Erlaubt das verwendete Tool oder Modell die geplante kommerzielle Nutzung?
- Hat die Zielplattform Regeln zur Kennzeichnung oder Einschränkung von KI-Inhalten?
- Wurde die finale Version auf Bildfehler, Textfehler, fehlerhafte Logos oder sensible Details geprüft?
Prompt-Vorlagen zum direkten Anpassen
Text-to-Video für einen kurzen Social-Clip
- „Totale einer fiktiven Person, die morgens ein kleines Café öffnet, Sonnenlicht fällt schräg durch die Glastür, langsame Dolly-Bewegung, warme Filmfarben, natürliche Bewegung, 8 Sekunden.“
Image-to-Video für ein Produktfoto
- „Dieses Produktfoto als erstes Bild verwenden. Leichter Push-in der Kamera, weiches Studiolicht, elegante dunkle Kulisse, feine Reflexionen, hochwertiger Werbestil, Produktform exakt beibehalten.“
Ruhige Hintergrundszene für YouTube oder Präsentation
- „Minimalistischer Schreibtisch neben einem Fenster, geöffneter Laptop, kleine Grünpflanze, weiches Nachmittagslicht, statische Kamera mit sehr leichter Bewegung, fokussierte moderne Stimmung, 10 Sekunden.“
Vorhandenen Clip verlängern
- „Farben und Komposition des vorhandenen Clips beibehalten, Szene um einige Sekunden verlängern, langsame Kamerabewegung fortsetzen, keine neuen Figuren hinzufügen, Licht konsistent halten.“
Kurz gesagt
Wer gute KI-Videos erstellen will, sollte klein anfangen: richtigen Modus wählen, Prompt wie ein Drehbriefing formulieren, kurze Entwürfe rendern, gezielt nachbessern und erst dann final exportieren. Vor dem Einsatz für Marke, Werbung oder monetarisierte Inhalte sollten kommerzielle Nutzungsrechte, echte Personen, Figuren, Musik und die Richtlinien des jeweiligen Tools geprüft werden.[1][
3]




