Kurz gesagt: Ja – wenn mit „hochgeladenem Bild“ ein vorhandenes Eingabe- oder Referenzbild gemeint ist. GPT Image 2 sollte nach den verfügbaren Quellen nicht als reines Text-zu-Bild-Modell verstanden werden. OpenAI unterscheidet in der Bilddokumentation zwischen Generations, also Bildern, die aus einem Textprompt neu erzeugt werden, und Edits, die bestehende Bilder verändern.[17] Auch die API-Referenz führt Edit an Image getrennt von Generate an Image und Create Variation auf.[
13][
15]
Für GPT Image 2 selbst liefern vor allem die geprüften Integrationsseiten konkrete Beispiele: Replicate beschreibt GPT Image 2 als Modell, das Bilder aus Text erstellen oder vorhandene Bilder bearbeiten kann, und fal.ai stellt einen Endpunkt openai/gpt-image-2/edit bereit, dessen Beispiel einen Prompt plus image_urls verwendet.[5][
7]
Warum die Antwort nicht einfach nur „Upload ja/nein“ lautet
In der Praxis ist „Bild hochladen“ kein einheitlicher technischer Begriff. Je nach API kann ein Bild als Datei, als URL, als Referenzbild oder allgemeiner als Eingabebild übergeben werden. Deshalb ist die präzisere Formulierung: GPT Image 2 unterstützt Workflows mit einem vorhandenen Input Image.
OpenAIs breitere Bildreferenz formuliert, dass ein Modell anhand eines Prompts und/oder eines Eingabebildes ein neues Bild erzeugen kann.[18] Das stützt grundsätzlich Bild-zu-Bild-Workflows, ohne in dem hier geprüften Ausschnitt alle Transportdetails für GPT Image 2 offenzulegen. fal.ai zeigt dagegen sehr konkret
image_urls als Eingabeparameter für den GPT-Image-2-Edit-Endpunkt.[7]
Wichtig für Entwicklerinnen und Entwickler: Ein Parameter wie image_urls in einem Wrapper oder Drittanbieterangebot ist nicht automatisch identisch mit dem nativen OpenAI-API-Schema. Vor dem Produktiveinsatz sollten daher der aktuelle OpenAI-Modellstatus, der konkrete Edit-Endpunkt, die Request-Felder und mögliche Limits geprüft werden.[1][
15]
Was OpenAIs Dokumentation sicher belegt
Die stärkste offizielle Aussage liegt in der Trennung der Workflows: Generieren und Bearbeiten sind in OpenAIs Bilddokumentation getrennte Vorgänge.[13][
15][
17] Ein Edit-Workflow startet mit einem vorhandenen visuellen Input und erzeugt daraus ein neues Bild; ein Generation-Workflow startet dagegen aus einem Textprompt heraus.[
17][
18]
Außerdem verweist ein OpenAI-Referenzausschnitt zum Editieren auf Verhalten, das standardmäßig für GPT-Image-Modelle zurückgegeben wird.[14] Das verbindet die Edit-Methode mit der GPT-Image-Modellfamilie, ersetzt aber nicht die Prüfung der jeweils aktuellen GPT-Image-2-spezifischen Detailseite.[
1][
14]
Was die GPT-Image-2-Beispiele zeigen
Die klarsten modellbezogenen Beispiele in den geprüften Quellen stammen von Integrationsanbietern. Replicate beschreibt GPT Image 2 als Modell für zwei Arbeitsweisen: neue Bilder aus Textbeschreibungen erzeugen und bestehende Bilder mit konkreten Anweisungen bearbeiten.[5]
fal.ai geht noch einen Schritt praktischer: Der dort dokumentierte GPT-Image-2-Edit-Endpunkt nimmt im Beispiel einen Bearbeitungsprompt und eine Liste von Bild-URLs entgegen.[7] Das ist ein deutlicher Hinweis darauf, dass GPT Image 2 in solchen Integrationen nicht nur als reiner Text-zu-Bild-Generator genutzt wird.
Masken helfen – sind aber kein pixelgenauer Schutzwall
OpenAIs GPT-Image-Cookbook beschreibt einen Edit-Workflow, bei dem eine Maske übergeben werden kann, wenn ein bestimmter Teil des Eingabebildes möglichst nicht verändert werden soll.[19] Gleichzeitig warnt OpenAI, dass das Modell trotzdem Teile innerhalb der Maske bearbeiten kann, und empfiehlt für exakte Masken gegebenenfalls ein Bildsegmentierungsmodell.[
19]
Das heißt: Masken sind nützlich, um Änderungen zu lenken. Sie sollten aber nicht als Garantie verstanden werden, dass jeder geschützte Pixel unverändert bleibt.[19]
Checkliste vor der Implementierung
- Verwenden Sie einen Edit-Workflow, wenn die Aufgabe mit einem vorhandenen Bild startet; OpenAI beschreibt Edits ausdrücklich als Änderung bestehender Bilder, getrennt von Generations aus Text.[
17]
- Prüfen Sie den aktuellen nativen OpenAI-Endpunkt, die Request-Felder, Limits und Modellverfügbarkeit, statt sich allein auf ein Drittanbieterbeispiel zu verlassen.[
1][
7][
15]
- Behandeln Sie
image_urlsals belegten Parameter in der fal.ai-Integration, nicht automatisch als universellen OpenAI-Parameter.[7][
15]
- Planen Sie bei Masken mit annähernder Steuerung, nicht mit pixelgenau garantiert unveränderten Bereichen.[
19]
Fazit
Ja: GPT Image 2 kann bereitgestellte Eingabebilder bearbeiten. Es ist nach den verfügbaren Quellen nicht auf die Erzeugung komplett neuer Bilder aus Text beschränkt. Die allgemeine Grundlage liefern OpenAIs dokumentierte Edit- und Input-Image-Workflows; die klarsten GPT-Image-2-spezifischen Beispiele kommen von Replicate und fal.ai.[5][
7][
15][
17][
18]
Die wichtigste Einschränkung bleibt technischer Natur: Wer GPT Image 2 produktiv einsetzen will, sollte die aktuell gültige native OpenAI-Spezifikation, verfügbare Endpunkte, Parameter und Grenzen direkt in der OpenAI-Dokumentation prüfen.[1][
15]




